Adriano BARRA

Adriano BARRA

Professore II Fascia (Associato)

Settore Scientifico Disciplinare MAT/07: FISICA MATEMATICA.

Dipartimento di Matematica e Fisica "Ennio De Giorgi"

Ex Collegio Fiorini - Via per Arnesano - LECCE (LE)

Ufficio, Piano terra

Telefono +39 0832 29 7601

Area di competenza:

Matematica & Fisica

Orario di ricevimento

previo contatto e-mail quando si vuole

Recapiti aggiuntivi

Ufficio n. 455 (primo piano Fiorini vecchio edificio)

Visualizza QR Code Scarica la Visit Card

Curriculum Vitae

il mio Curriculum Vitae è fruibile a questo indirizzohttps://www.adrianobarra.com/ 

Grazie per l'attenzione 

Didattica

A.A. 2022/2023

MECCANICA RAZIONALE

Corso di laurea INGEGNERIA CIVILE

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 54.0

Anno accademico di erogazione 2022/2023

Per immatricolati nel 2021/2022

Anno di corso 2

Struttura DIPARTIMENTO DI INGEGNERIA DELL'INNOVAZIONE

Percorso PERCORSO COMUNE

Sede Lecce

METODI MATEMATICI PER LA BIOLOGIA II

Corso di laurea SCIENZE BIOLOGICHE

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 34.0

Anno accademico di erogazione 2022/2023

Per immatricolati nel 2022/2023

Anno di corso 1

Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI

Percorso PERCORSO GENERICO/COMUNE

Metodi matematici per l'intelligenza artificiale

Corso di laurea MATEMATICA

Tipo corso di studio Laurea Magistrale

Lingua ITALIANO

Crediti 9.0

Ripartizione oraria Ore totali di attività frontale: 63.0

Anno accademico di erogazione 2022/2023

Per immatricolati nel 2022/2023

Anno di corso 1

Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"

Percorso MATEMATICA PER L'INTELLIGENZA ARTIFICIALE

Sede Lecce

A.A. 2021/2022

MECCANICA RAZIONALE

Corso di laurea INGEGNERIA INDUSTRIALE

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 54.0

Anno accademico di erogazione 2021/2022

Per immatricolati nel 2020/2021

Anno di corso 2

Struttura DIPARTIMENTO DI INGEGNERIA DELL'INNOVAZIONE

Percorso PERCORSO COMUNE

Sede Lecce

METODI MATEMATICI PER LA BIOLOGIA II

Corso di laurea SCIENZE BIOLOGICHE

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 34.0

Anno accademico di erogazione 2021/2022

Per immatricolati nel 2021/2022

Anno di corso 1

Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI

Percorso PERCORSO GENERICO/COMUNE

Metodi matematici per l'intelligenza artificiale

Corso di laurea MATEMATICA

Tipo corso di studio Laurea Magistrale

Lingua ITALIANO

Crediti 9.0

Ripartizione oraria Ore totali di attività frontale: 63.0

Anno accademico di erogazione 2021/2022

Per immatricolati nel 2021/2022

Anno di corso 1

Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"

Percorso PERCORSO COMUNE

Sede Lecce

A.A. 2020/2021

MECCANICA RAZIONALE

Corso di laurea INGEGNERIA INDUSTRIALE

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 54.0

Anno accademico di erogazione 2020/2021

Per immatricolati nel 2019/2020

Anno di corso 2

Struttura DIPARTIMENTO DI INGEGNERIA DELL'INNOVAZIONE

Percorso PERCORSO COMUNE

Sede Lecce

METODI MATEMATICI PER LA BIOLOGIA II

Corso di laurea SCIENZE BIOLOGICHE

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 34.0

Anno accademico di erogazione 2020/2021

Per immatricolati nel 2020/2021

Anno di corso 1

Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI

Percorso PERCORSO GENERICO/COMUNE

Metodi matematici per l'intelligenza artificiale

Corso di laurea MATEMATICA

Tipo corso di studio Laurea Magistrale

Lingua ITALIANO

Crediti 9.0

Ripartizione oraria Ore totali di attività frontale: 63.0

Anno accademico di erogazione 2020/2021

Per immatricolati nel 2020/2021

Anno di corso 1

Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"

Percorso PERCORSO COMUNE

A.A. 2019/2020

MATEMATICA

Corso di laurea VITICOLTURA ED ENOLOGIA

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 48.0

Anno accademico di erogazione 2019/2020

Per immatricolati nel 2019/2020

Anno di corso 1

Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI

Percorso PERCORSO COMUNE

Sede Lecce

MECCANICA RAZIONALE

Corso di laurea INGEGNERIA INDUSTRIALE

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 54.0

Anno accademico di erogazione 2019/2020

Per immatricolati nel 2018/2019

Anno di corso 2

Struttura DIPARTIMENTO DI INGEGNERIA DELL'INNOVAZIONE

Percorso PERCORSO COMUNE

Sede Lecce

PROBABILITA' E STATISTICA

Corso di laurea SCIENZE BIOLOGICHE

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 34.0

Anno accademico di erogazione 2019/2020

Per immatricolati nel 2019/2020

Anno di corso 1

Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI

Percorso PERCORSO GENERICO/COMUNE

A.A. 2018/2019

PROBABILITA' E STATISTICA

Corso di laurea SCIENZE BIOLOGICHE

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 36.0

Anno accademico di erogazione 2018/2019

Per immatricolati nel 2018/2019

Anno di corso 1

Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI

Percorso PERCORSO GENERICO/COMUNE

STATISTICA MATEMATICA

Corso di laurea MATEMATICA

Tipo corso di studio Laurea

Lingua ITALIANO

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 42.0

Anno accademico di erogazione 2018/2019

Per immatricolati nel 2016/2017

Anno di corso 3

Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"

Percorso PERCORSO COMUNE

Torna all'elenco
MECCANICA RAZIONALE

Corso di laurea INGEGNERIA CIVILE

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 54.0

Per immatricolati nel 2021/2022

Anno accademico di erogazione 2022/2023

Anno di corso 2

Semestre Secondo Semestre (dal 01/03/2023 al 09/06/2023)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

Sede Lecce

è opportuna una conoscenza di base dell'algebra lineare, dell'analisi matematica e della fisica generale

Il corso intende introdurre lo studente alla formalizzazione rigorosa della fisica generale, prestando particolare attenzione ai corpi rigidi, alla statica ed alla formulazione analitica della meccanica.

Fornire allo studenti i metodi matematici consoni per lo studio approfondito e rigoroso della Meccanica, con somma attenzione al suo telaio riduzionista

Lezioni frontali

L'esame si articola in una prova scritta e in una prova orale. La prova scritta si compone di due parti: la prima contiene domande a risposta multipla; la seconda, un esercizio di meccanica.

 

Per il superamento della prova scritta è necessario avere la sufficienza su entrambi le parti.

 

La prova orale è facoltativa per coloro che abbiano superato la prova scritta con un voto superiore a 21/30 e inferiore a 27/30. E’ invece obbligatoria in tutti gli altri casi.Il mancato superamento della prova orale comporta l'annullamento della rispettiva prova scritta.

Ricevimento Studenti: previa prenotazione via e-mail, nell'ufficio 455 del Dipartimento di Matematica e Fisica "E. De Giorgi"

Introduzione alla meccanica razionale

cinematica del punto materiale e di sistemi di punti materiali

atto di moto rigido, formule di Poisson, CIR e suo impiego

classificazione dei vincoli, cinematica del corpo rigido

principi della meccanica del punto materiale e di sistemi di punti materiali

equazioni cardinali della meccanica

energie, lavori e teoremi di conservazione

baricentro e momento di inerzia

quantità di moto e momento angolar per il corpo rigido

statica e dinamica dei corpi rigidi

principio dei lavori virtuali

statica analitica

stabilità delle perturbazioni  e piccole oscillazioni

1. Meccanica Razionale. Biscari, P., Ruggeri, T., Saccomandi, G., Vianello, M. Springer (2016)

2. Appunti di Meccanica Razionale. Turzi S. (scaricabile dal sito del docente) 

MECCANICA RAZIONALE (MAT/07)
METODI MATEMATICI PER LA BIOLOGIA II

Corso di laurea SCIENZE BIOLOGICHE

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 34.0

Per immatricolati nel 2022/2023

Anno accademico di erogazione 2022/2023

Anno di corso 1

Semestre Secondo Semestre (dal 06/03/2023 al 09/06/2023)

Lingua

Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)

Nessuno

Rudimenti di teoria della probabilità ("problemi diretti", prima parte), rudimenti di inferenza statistica ("problemi inversi", seconda parte) ed applicazioni di modelli matematici semplici a problemi biologici (terza parte).

Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte). Il corso si chiude (terza parte) mostrando allo studente come  usare semplici modelli matematici per descrivere quantitativamente semplici fenomeni biologici.

Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)

L'esame consta nel superamento di una prova orale (gemellata con il modulo "Metodi Matematici per la Biologia 1" gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale

In concomitanza degli appelli del primo modulo: il corso è unico, è diviso in due moduli (il primo impartito dalla Professoressa Mangino, il secondo da Adriano)

Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.

 

Gli studenti con OFA dovranno seguire uno dei corsi introduttivi alla matematica universitaria su Eduopen: conseguito l'attestato, in occasione delle prove scritte di Metodi Matematici per la Biologia potranno o sostenere l'esame scritto oppure svolgere 3 semplicissimi esercizi.

[a] Nel primo caso, se  almeno un esercizio è fatto bene,  possiamo dire che hanno recuperato l'Ofa.

[b] Nel secondo caso, almeno 2 esercizi devono essere svolti bene,

 

-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità 
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale

-Inferenza statistica: generalità degli stimatori 

-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA) 

-Comunicazione lungo una linea rumorosa (link youtube https://www.youtube.com/watch?v=rzg_CavQI_M&ab_channel=MITOpenCourseWare )

-il Teorema di Shannon: la definizione di entropia come misura di informazione ed il principio di massima entropia in teoria dell'informazione

-Dinamica di popolazione, modelli di Malthus e logistici generalizzati, modello preda-predatore di Lotka-Volterra.

 

M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.

METODI MATEMATICI PER LA BIOLOGIA II (MAT/07)
Metodi matematici per l'intelligenza artificiale

Corso di laurea MATEMATICA

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea Magistrale

Crediti 9.0

Ripartizione oraria Ore totali di attività frontale: 63.0

Per immatricolati nel 2022/2023

Anno accademico di erogazione 2022/2023

Anno di corso 1

Semestre Secondo Semestre (dal 27/02/2023 al 09/06/2023)

Lingua ITALIANO

Percorso MATEMATICA PER L'INTELLIGENZA ARTIFICIALE (A227)

Sede Lecce

Conditio sine qua non è ovviamente solo una laurea Triennale in Matematica o Fisica, ma un'opportuna conoscenza dei seguenti argomenti permette una comprensione del corso significativamente migliore:

-Probabilità & Statistica 
-Equazioni alle derivate parziali
-rudimenti di Meccanica Analitica
-rudimenti di Meccanica Statistica

il corso segue una prospettiva storica ed analizza (fornendo modelli e metodi espliciti in ogni dettaglio) il ruolo della matematica nella modellizazione della processazione d'informazione emergente in reti di neuroni (biologici o artificiali) in interazione, partendo dai primi modelli per l'emissione di un segnale elettrico dal singolo neurone per giungere alle moderne architetture del Deep Learning.

 

Il corso è diviso in tre sezioni principali:

 

1) La prima sezione serve ad assicurarci di condividere una conoscenza scientifica di base (pre-requisito ovviamente necessario per muovere insieme i primi passi verso un'intelaiatura matematica formale dell'Intelligenza Artificiale). In estrema sintesi si suppliranno allo studente rudimenti di Meccanica Statistica e di Processi Stocastici rivisitando insieme alcuni argomenti fondamentali (adattati per questo corso) di pertinenza canonica di queste due discipline. Per poter affrontare questi concetti sarà necessario una veloce ripasso di elementi di Meccanica, Probabilità e Statistica che saranno gli incipit del corso stesso.

 

2) La seconda sezione introduce invece metodi e modelli matematici archetipali per definire sistemi semplici e sistemi complessi in meccanica statistica, fondamentali per una successiva analisi matematica del funzionamento delle reti neurali da una prospettiva di Intelligenza Artificiale Teorica.  In questa sezione sviluppiamo in dettaglio i metodi matematici necessari alla descrizione ed alla comprensione della fenomenologia che questi sistemi mostrano (dalla rottura spontanea di ergodicità alla rottura di simmetria di replica di Parisi) dotandoci tanto metodi euristici, di uso canonico in approcci di Fis02 (e.g. “replica trick”, “message passage”, etc.), quanto metodi rigorosi, di largo impiego in Mat06 & Mat07 (e.g. “stochastic stability”, “cavity fields”, etc.).

 

3) L'ultima e preponderante sezione è invece completamente dedita alle reti neurali: dopo una succinta descrizione (sempre in termini matematici) dei meccanismi cardine inerenti il neurone e la propagazione d'informazione tra neuroni (alla stregua della loro implementazione elettronica), vedremo i limiti della compuazione a singolo neurone guardandola da diverse prospettive.  A seguire costruiremo quindi “reti di neuroni” e ne studieremo le proprietà emergenti (cioè non immediatamente deducibili guardando al comportamento del singolo neurone), persistendo in una prospettiva di meccanica statistica. Nello specifico, proveremo a vedere come queste reti siano in grado di apprendere ed astrarre guardando esempi suppliti dal mondo esterno e come, successivamente, queste usino quanto appreso per rispondere opportunamente, qualora stimolate, al mondo esterno. Capiremo inoltre come queste a volte possano sbagliare, e perché.

La sezione si chiuderà lambendo la frontiera della ricerca attuale nel campo dell'Intelligenza Artificiale Teorica: idealmente ed auspicabilmente, alla fine del corso lo studente dovrebbe essere in grado di poter proseguire autonomamente nell'approfondimento di tale disciplina. In particolare questi dovrebbe poter essere in grado, interagendo in team un domani, di svolgere un ruolo complementare alle figure del computer-scientist e dell'ingegnere dell'informazione, interessandosi alle loro stesse tematiche, ma offrendo una diversa prospettiva, intrinsecamente più astratta e sintetica (a dire cioè dove la miriade di ricette di algoritmica che ogni giorno produciamo trovi una collocazione naturale e la gestione stessa del gruppo diventi ottimizzata) e per questo sempre più indispensabile nei gruppi di ricerca in AI.

 

Nelle ultime due lezioni, tempo permettendo, ci permetteremo di aprire una finestra sulla processazione d'informazione in altri sistemi biologici (un esempio di processazione intra-cellulare ed uno extra-cellulare) come approfondimento al corso.

 

Il corso è strutturato in maniera "simmetrica" in questo senso: in medias res tratteremo tutti i modelli (i.e. Curie-Weiss, Sherrington-Kirkpatrick, Hopfield, Boltzmann) sempre mediante le stesse tecniche (punto-sella/replica trick, interpolazione à la Guerra e approcci mediante PDE) di volta in volta opportunamente plasmate sul modello in studio: questo dovrebbe agevolare lo studente nel prendere dimistichezza con le tecniche stesse.

 

Lo scopo del corso è condividere con lo studente i concetti salienti e, parimenti, fornire allo studente gli strumenti cardine, affinché questi possa continuare autonomamente la sua crescita culturale nell'ambito dell'Intelligenza Artificiale da una prospettiva prettamente formale: il presente corso brama essere un corso teorico di “Intelligenza Artificiale”.
L'ambizione ultima è riuscire a porsi domande sui principi primi di funzionamento dell'AI (traendo ispirazione da analogie con la processazione d'informazione in reti biologiche) e, ove possibile rispondere, capire come impostare il problema nel suo complesso all'interno di una cornice matematica consona affinché la reti neurale non sia vista assolutamente come una "black box".

Lezioni frontali

L'esame consta nel superamento di una prova orale

Da concordare con il docente (assolutamente malleabile su questo punto)

0. Introduzione al corso.

-Finalità del corso e modi operandi, panoramica, struttura e simmetrie del corso.

                                   

1. Richiami di Meccanica, Probabilità, Meccanica Statistica e Processi Stocastici

-Legge dei Grandi Numeri e Teoremi del Limite Centrale.
-Problema del Time-Reversal con esempi di PDE note in Fisica (e.g. D'Alambert & Fourier).
-Il modello di Ehrenfest: analisi dell'entropia sia in statica che in dinamica e check di coerenza.
-L'approccio di Gibbs alla "massima entropia" ed il metodo della “distribuzione più probabile”.
-Equivalenza (e non) tra le entropie di Gibbs e Shannon.
-La temperatura come rumore veloce: dal random walk all'equazione del calore.
-Il processo di Markov: stazionarietà, catene irriducibili, distribuzioni invarianti.
-La master equation: Hamiltoniana come funzione di Lyapunov, teorema del Bilancio Dettagliato.

2. Sistemi semplici e sistemi complessi nel linguaggio della meccanica statistica                   

                          2.1: il Curie-Weiss, archetipo della semplicità
-Preludio: Modello di Ising: approssimazione di campo medio, transizioni di fase e rotture di simmetrie.
-Preludio: stati puri & fattorizzazione delle funzioni di correlazione, clustering.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e sub-additività.
-Metodo del “punto di sella”e tecnica dell'interpolazione di Guerra
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi medainte campo di cavità ed analisi di Fourier: equivalenza tra shock e rottura di simmetria.
                          2.2: lo Sherrington-Kirkpatrick, archetipo della complessità

-Preludio: misure quenched ed annealed, overlap e repliche.
-Preludio: ageing, rottura del time-translational-invariance e fenomenologia dei trap models.
-Preludio: Spettro di una catena di Markov semplice e frustrata: rilassamento dei modi normali.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e super-additività.
-Metodo “replica trick”: soluzione replica simmetrica e crisi entropica.
-Analisi mediante “replica trick”: la rottura di simmetria di replica di Parisi.
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi mediante “stochastic stability & cavity fields”: approccio à la Guerra.

 

3. Elementi di Intelligenza Artificiale: le reti neurali
                          3.1: Dinamica neurale

-Il quadro storico nel quale è nata l'AI: tanti contributi da diverse discipline.
-La dinamica neurale come processo stocastico di Markov.
-Uno sguardo al neurone biologico: la “cable theory” di Hodking-Huxley ed il neurone “integrate & fire” di Stein.
-Uno sguardo al neurone artificiale: il modello di McCulloch & Pitts, la meccanica statistica come logica rumorosa.
-Il Perceptrone di Rosenblatt e la critica di Minsky&Papert: verso le reti.
-La memoria associativa e le reti neuronali: la proposta di Hebb per l'apprendimento.
-Il modello di Mattis, trasformazioni di gauge locali e storage spontaneo di un bit di informazione.
-La rete neurale di Hopfield a basso carico con il metodo della log-constrained entropy.
-La rete neurale di Hopfield ad alto carico con il replica trick: teoria di Amit-Gutfreund-Sompolinsky.
-La rete neurale di Hopfield ad alto carico con la tecnica dell'interpolazione di Guerra.
-L'ottimizzatore NP di Hopfield-Tank (il cervello del commesso viaggiatore).
-Il simulated-annealing e le transizioni di fase in AI (K-SAT): l'importanza dei diagrammi di fase.  
                         3.2: Dinamica sinaptica
-L'inverse-problem nel caso più semplice (un sola specie di Curie-Weiss & via log-likelihood).
-Il modulo del riflesso condizionato di Pavlov mediante dinamica stocastica à la Glauber.
-Reti neurali feed-forward: addestramento mediante "back-propagation".
-L'approccio di Jaynes alla "massima entropia": una prospettiva del tutto inferenziale (anche per le reti random).
-Apprendimento delle Boltzmann machines: scenario studente-allievo (supervised learning).
-Apprendimento delle Boltzmann machines: scenario non supervisionato (contrastive divergence).
-Equivalenza tra reti neurali di Hopfield e Boltzmann machines mediante una prospettiva Bayesiana.
-Reti neurali dense: l'emergere del trade-off tra risoluzione e capacità di immagazzinamento.
-Reti neurali che dormono e sognano: come distruggere gli stati di spin-glass per ottimizzare la memoria.
-Reti neurali gerarchiche e multitasking: robustezza ispirata alla biologia.
-Reti neurali profonde: il deep learning e le statistiche power-law (scale-free).

 

4.Elementi di intelligenza biologica: approfondimenti (facoltativo)

-Cinetica di reazione di Micaelis-Menten, Hill e Koshland.
-L'emoglobina e la RMN per la mappatura neurale.
-Computazione à la Monod (esempio dell'orecchio e perdita d'informazione per il setting ottimale).
-La percezione visiva: i tre colori primari e lo spettro quantizzato.
-Le reti linfocitarie e la risposta immunitaria adattativa: riconoscimento e memorizzazione.

[Amit]          D.J. Amit, Modeling Brain Functions, Cambridge Press (1985).
[Barra]         A. Barra, Dispense specifiche per questo corso (2019).
[Coolen]      T. Coolen, R . Kuhn, P. Sollich, Theory of Neural Information Processing Systems, Oxford Press (2005).

[MacKay]    D.J.C. MacKay, Information theory, Inference and Learning Algorithms, Cambridge Press (2018).

Metodi matematici per l'intelligenza artificiale (MAT/07)
MECCANICA RAZIONALE

Corso di laurea INGEGNERIA INDUSTRIALE

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 54.0

Per immatricolati nel 2020/2021

Anno accademico di erogazione 2021/2022

Anno di corso 2

Semestre Secondo Semestre (dal 01/03/2022 al 10/06/2022)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

Sede Lecce

è opportuna una conoscenza di base dell'algebra lineare, dell'analisi matematica e della fisica generale

Il corso intende introdurre lo studente alla formalizzazione rigorosa della fisica generale, prestando particolare attenzione ai corpi rigidi, alla statica ed alla formulazione analitica della meccanica.

Fornire allo studenti i metodi matematici consoni per lo studio approfondito e rigoroso della Meccanica, con somma attenzione al suo telaio riduzionista

Lezioni frontali

L'esame si articola in una prova scritta e in una prova orale. La prova scritta si compone di due parti: la prima contiene domande a risposta multipla; la seconda, un esercizio di meccanica.

 

Per il superamento della prova scritta è necessario avere la sufficienza su entrambi le parti.

 

La prova orale è facoltativa per coloro che abbiano superato la prova scritta con un voto superiore a 21/30 e inferiore a 27/30. E’ invece obbligatoria in tutti gli altri casi.Il mancato superamento della prova orale comporta l'annullamento della rispettiva prova scritta.

Ricevimento Studenti: previa prenotazione via e-mail, nell'ufficio 455 del Dipartimento di Matematica e Fisica "E. De Giorgi"

Introduzione alla meccanica razionale

cinematica del punto materiale e di sistemi di punti materiali

atto di moto rigido, formule di Poisson, CIR e suo impiego

classificazione dei vincoli, cinematica del corpo rigido

principi della meccanica del punto materiale e di sistemi di punti materiali

equazioni cardinali della meccanica

energie, lavori e teoremi di conservazione

baricentro e momento di inerzia

quantità di moto e momento angolar per il corpo rigido

statica e dinamica dei corpi rigidi

principio dei lavori virtuali

formulazione Lagrangiana della meccanica

integrali primi e simmetrie di Noether

dalle equazion di Lagrange a quelle di Hamilton

stabilità delle perturbazioni  ed analisi qualitativa dei moti

1. Meccanica Razionale. Biscari, P., Ruggeri, T., Saccomandi, G., Vianello, M. Springer (2016)

2. Appunti di Meccanica Razionale. Turzi S. (scaricabile dal sito del docente) 

MECCANICA RAZIONALE (MAT/07)
METODI MATEMATICI PER LA BIOLOGIA II

Corso di laurea SCIENZE BIOLOGICHE

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 34.0

Per immatricolati nel 2021/2022

Anno accademico di erogazione 2021/2022

Anno di corso 1

Semestre Secondo Semestre (dal 07/03/2022 al 10/06/2022)

Lingua

Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)

Nessuno

Rudimenti di teoria della probabilità ("problemi diretti", prima parte), rudimenti di inferenza statistica ("problemi inversi", seconda parte) ed applicazioni di modelli matematici semplici a problemi biologici (terza parte).

Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte). Il corso si chiude (terza parte) mostrando allo studente come  usare semplici modelli matematici per descrivere quantitativamente semplici fenomeni biologici.

Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)

L'esame consta nel superamento di una prova orale (gemellata con il modulo "Metodi Matematici per la Biologia 1" gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale

In concomitanza degli appelli del primo modulo: il corso è unico, è diviso in due moduli (il primo impartito dalla Professoressa Mangino, il secondo da Adriano)

Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.

 

Gli studenti con OFA dovranno seguire uno dei corsi introduttivi alla matematica universitaria su Eduopen: conseguito l'attestato, in occasione delle prove scritte di Metodi Matematici per la Biologia potranno o sostenere l'esame scritto oppure svolgere 3 semplicissimi esercizi.

[a] Nel primo caso, se  almeno un esercizio è fatto bene,  possiamo dire che hanno recuperato l'Ofa.

[b] Nel secondo caso, almeno 2 esercizi devono essere svolti bene,

 

-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità 
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale

-Inferenza statistica: generalità degli stimatori 

-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA) 

-Comunicazione lungo una linea rumorosa (link youtube https://www.youtube.com/watch?v=rzg_CavQI_M&ab_channel=MITOpenCourseWare )

-il Teorema di Shannon: la definizione di entropia come misura di informazione ed il principio di massima entropia in teoria dell'informazione

-Dinamica di popolazione, modelli di Malthus e logistici generalizzati, modello preda-predatore di Lotka-Volterra.

 

M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.

METODI MATEMATICI PER LA BIOLOGIA II (MAT/07)
Metodi matematici per l'intelligenza artificiale

Corso di laurea MATEMATICA

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea Magistrale

Crediti 9.0

Ripartizione oraria Ore totali di attività frontale: 63.0

Per immatricolati nel 2021/2022

Anno accademico di erogazione 2021/2022

Anno di corso 1

Semestre Secondo Semestre (dal 21/02/2022 al 27/05/2022)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

Sede Lecce

Conditio sine qua non è ovviamente solo una laurea Triennale in Matematica o Fisica, ma un'opportuna conoscenza dei seguenti argomenti permette una comprensione del corso significativamente migliore:

-Statistica elementare
-Equazioni alle derivate parziali
-Meccanica analitica
-Termodinamica/rudimenti di meccanica statistica

il corso segue una prospettiva storica ed analizza (fornendo modelli e metodi espliciti in ogni dettaglio) il ruolo della matematica nella modellizazione della processazione d'informazione emergente in reti di neuroni (biologici o artificiali) in interazione, partendo dai primi modelli per l'emissione di un segnale elettrico dal singolo neurone per giungere alle moderne architetture del Deep Learning.

 

Il corso è diviso in tre sezioni principali:

 

1) La prima sezione serve ad assicurarci di condividere una conoscenza scientifica di base (pre-requisito ovviamente necessario per muovere insieme i primi passi verso un'intelaiatura matematica formale dell'Intelligenza Artificiale). In estrema sintesi si suppliranno allo studente rudimenti di Meccanica Statistica e di Processi Stocastici rivisitando insieme alcuni argomenti fondamentali (adattati per questo corso) di pertinenza canonica di queste due discipline. Per poter affrontare questi concetti sarà necessario una veloce ripasso di elementi di Meccanica, Probabilità e Statistica che saranno gli incipit del corso stesso.

 

2) La seconda sezione introduce invece metodi e modelli matematici archetipali per definire sistemi semplici e sistemi complessi in meccanica statistica, fondamentali per una successiva analisi matematica del funzionamento delle reti neurali da una prospettiva di Intelligenza Artificiale Teorica.  In questa sezione sviluppiamo in dettaglio i metodi matematici necessari alla descrizione ed alla comprensione della fenomenologia che questi sistemi mostrano (dalla rottura spontanea di ergodicità alla rottura di simmetria di replica di Parisi) dotandoci tanto metodi euristici, di uso canonico in approcci di Fis02 (e.g. “replica trick”, “message passage”, etc.), quanto metodi rigorosi, di largo impiego in Mat06 & Mat07 (e.g. “stochastic stability”, “cavity fields”, etc.).

 

3) L'ultima e preponderante sezione è invece completamente dedita alle reti neurali: dopo una succinta descrizione (sempre in termini matematici) dei meccanismi cardine inerenti il neurone e la propagazione d'informazione tra neuroni (alla stregua della loro implementazione elettronica), vedremo i limiti della compuazione a singolo neurone guardandola da diverse prospettive.  A seguire costruiremo quindi “reti di neuroni” e ne studieremo le proprietà emergenti (cioè non immediatamente deducibili guardando al comportamento del singolo neurone), persistendo in una prospettiva di meccanica statistica. Nello specifico, proveremo a vedere come queste reti siano in grado di apprendere ed astrarre guardando esempi suppliti dal mondo esterno e come, successivamente, queste usino quanto appreso per rispondere opportunamente, qualora stimolate, al mondo esterno. Capiremo inoltre come queste a volte possano sbagliare, e perché.

La sezione si chiuderà lambendo la frontiera della ricerca attuale nel campo dell'Intelligenza Artificiale Teorica: idealmente ed auspicabilmente, alla fine del corso lo studente dovrebbe essere in grado di poter proseguire autonomamente nell'approfondimento di tale disciplina. In particolare questi dovrebbe poter essere in grado, interagendo in team un domani, di svolgere un ruolo complementare alle figure del computer-scientist e dell'ingegnere dell'informazione, interessandosi alle loro stesse tematiche, ma offrendo una diversa prospettiva, intrinsecamente più astratta e sintetica (a dire cioè dove la miriade di ricette di algoritmica che ogni giorno produciamo trovi una collocazione naturale e la gestione stessa del gruppo diventi ottimizzata) e per questo sempre più indispensabile nei gruppi di ricerca in AI.

 

Nelle ultime due lezioni, tempo permettendo, ci permetteremo di aprire una finestra sulla processazione d'informazione in altri sistemi biologici (un esempio di processazione intra-cellulare ed uno extra-cellulare) come approfondimento al corso.

 

Il corso è strutturato in maniera "simmetrica" in questo senso: in medias res tratteremo tutti i modelli (i.e. Curie-Weiss, Sherrington-Kirkpatrick, Hopfield, Boltzmann) sempre mediante le stesse tecniche (punto-sella/replica trick, interpolazione à la Guerra e approcci mediante PDE) di volta in volta opportunamente plasmate sul modello in studio: questo dovrebbe agevolare lo studente nel prendere dimistichezza con le tecniche stesse.

 

Lo scopo del corso è condividere con lo studente i concetti salienti e, parimenti, fornire allo studente gli strumenti cardine, affinché questi possa continuare autonomamente la sua crescita culturale nell'ambito dell'Intelligenza Artificiale da una prospettiva prettamente formale: il presente corso non vuole essere un corso applicato di
“Machine Learning” (corso fruibile nelle Facoltà di Ingegneria da decadi) mentre brama essere un corso teorico di “Intelligenza Artificiale”.
L'ambizione ultima è riuscire a porsi domande sui principi primi di funzionamento dell'AI (traendo ispirazione da analogie con la processazione d'informazione in reti biologiche) e, ove possibile rispondere, capire come impostare il problema nel suo complesso all'interno di una cornice matematica consona.

Lezioni frontali

L'esame consta nel superamento di una prova orale

Da concordare con il docente (assolutamente malleabile su questo punto)

0. Introduzione al corso.

-Finalità del corso e modi operandi, panoramica, struttura e simmetrie del corso.

                                   

1. Richiami di Meccanica, Probabilità, Meccanica Statistica e Processi Stocastici

-Legge dei Grandi Numeri e Teoremi del Limite Centrale.
-Problema del Time-Reversal con esempi di PDE note in Fisica (e.g. D'Alambert & Fourier).
-Il modello di Ehrenfest: analisi dell'entropia sia in statica che in dinamica e check di coerenza.
-L'approccio di Gibbs alla "massima entropia" ed il metodo della “distribuzione più probabile”.
-Equivalenza (e non) tra le entropie di Gibbs e Shannon.
-La temperatura come rumore veloce: dal random walk all'equazione del calore.
-Il processo di Markov: stazionarietà, catene irriducibili, distribuzioni invarianti.
-La master equation: Hamiltoniana come funzione di Lyapunov, teorema del Bilancio Dettagliato.

2. Sistemi semplici e sistemi complessi nel linguaggio della meccanica statistica                   

                          2.1: il Curie-Weiss, archetipo della semplicità
-Preludio: Modello di Ising: approssimazione di campo medio, transizioni di fase e rotture di simmetrie.
-Preludio: stati puri & fattorizzazione delle funzioni di correlazione, clustering.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e sub-additività.
-Metodo del “punto di sella”e tecnica dell'interpolazione di Guerra
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi medainte campo di cavità ed analisi di Fourier: equivalenza tra shock e rottura di simmetria.
                          2.2: lo Sherrington-Kirkpatrick, archetipo della complessità

-Preludio: misure quenched ed annealed, overlap e repliche.
-Preludio: ageing, rottura del time-translational-invariance e fenomenologia dei trap models.
-Preludio: Spettro di una catena di Markov semplice e frustrata: rilassamento dei modi normali.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e super-additività.
-Metodo “replica trick”: soluzione replica simmetrica e crisi entropica.
-Analisi mediante “replica trick”: la rottura di simmetria di replica di Parisi.
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi mediante “stochastic stability & cavity fields”: approccio à la Guerra.

 

3. Elementi di Intelligenza Artificiale: le reti neurali
                          3.1: Dinamica neurale

-Il quadro storico nel quale è nata l'AI: tanti contributi da diverse discipline.
-La dinamica neurale come processo stocastico di Markov.
-Uno sguardo al neurone biologico: la “cable theory” di Hodking-Huxley ed il neurone “integrate & fire” di Stein.
-Uno sguardo al neurone artificiale: il modello di McCulloch & Pitts, la meccanica statistica come logica rumorosa.
-Il Perceptrone di Rosenblatt e la critica di Minsky&Papert: verso le reti.
-La memoria associativa e le reti neuronali: la proposta di Hebb per l'apprendimento.
-Il modello di Mattis, trasformazioni di gauge locali e storage spontaneo di un bit di informazione.
-La rete neurale di Hopfield a basso carico con il metodo della log-constrained entropy.
-La rete neurale di Hopfield ad alto carico con il replica trick: teoria di Amit-Gutfreund-Sompolinsky.
-La rete neurale di Hopfield ad alto carico con la tecnica dell'interpolazione di Guerra.
-L'ottimizzatore NP di Hopfield-Tank (il cervello del commesso viaggiatore).
-Il simulated-annealing e le transizioni di fase in AI (K-SAT): l'importanza dei diagrammi di fase.  
                         3.2: Dinamica sinaptica
-L'inverse-problem nel caso più semplice (un sola specie di Curie-Weiss & via log-likelihood).
-Il modulo del riflesso condizionato di Pavlov mediante dinamica stocastica à la Glauber.
-Reti neurali feed-forward: addestramento mediante "back-propagation".
-L'approccio di Jaynes alla "massima entropia": una prospettiva del tutto inferenziale (anche per le reti random).
-Apprendimento delle Boltzmann machines: scenario studente-allievo (supervised learning).
-Apprendimento delle Boltzmann machines: scenario non supervisionato (contrastive divergence).
-Equivalenza tra reti neurali di Hopfield e Boltzmann machines mediante una prospettiva Bayesiana.
-Reti neurali dense: l'emergere del trade-off tra risoluzione e capacità di immagazzinamento.
-Reti neurali che dormono e sognano: come distruggere gli stati di spin-glass per ottimizzare la memoria.
-Reti neurali gerarchiche e multitasking: robustezza ispirata alla biologia.
-Reti neurali profonde: il deep learning e le statistiche power-law (scale-free).

 

4.Elementi di intelligenza biologica: approfondimenti (facoltativo)

-Cinetica di reazione di Micaelis-Menten, Hill e Koshland.
-L'emoglobina e la RMN per la mappatura neurale.
-Computazione à la Monod (esempio dell'orecchio e perdita d'informazione per il setting ottimale).
-La percezione visiva: i tre colori primari e lo spettro quantizzato.
-Le reti linfocitarie e la risposta immunitaria adattativa: riconoscimento e memorizzazione.

[Amit]          D.J. Amit, Modeling Brain Functions, Cambridge Press (1985).
[Barra]         A. Barra, Dispense specifiche per questo corso (2019).
[Coolen]      T. Coolen, R . Kuhn, P. Sollich, Theory of Neural Information Processing Systems, Oxford Press (2005).

[MacKay]    D.J.C. MacKay, Information theory, Inference and Learning Algorithms, Cambridge Press (2018).

Metodi matematici per l'intelligenza artificiale (MAT/07)
MECCANICA RAZIONALE

Corso di laurea INGEGNERIA INDUSTRIALE

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 54.0

Per immatricolati nel 2019/2020

Anno accademico di erogazione 2020/2021

Anno di corso 2

Semestre Secondo Semestre (dal 01/03/2021 al 11/06/2021)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

Sede Lecce

è opportuna una conoscenza di base dell'algebra lineare, dell'analisi matematica e della fisica generale

Il corso intende introdurre lo studente alla formalizzazione rigorosa della fisica generale, prestando particolare attenzione ai corpi rigidi, alla statica ed alla formulazione analitica della meccanica.

Fornire allo studenti i metodi matematici consoni per lo studio approfondito e rigoroso della Meccanica, con somma attenzione al suo telaio riduzionista

Lezioni frontali

L'esame si articola in una prova scritta e in una prova orale. La prova scritta si compone di due parti: la prima contiene domande a risposta multipla; la seconda, un esercizio di meccanica.

 

Per il superamento della prova scritta è necessario avere la sufficienza su entrambi le parti.

 

La prova orale è facoltativa per coloro che abbiano superato la prova scritta con un voto superiore a 21/30 e inferiore a 27/30. E’ invece obbligatoria in tutti gli altri casi.Il mancato superamento della prova orale comporta l'annullamento della rispettiva prova scritta.

Ricevimento Studenti: previa prenotazione via e-mail, nell'ufficio 455 del Dipartimento di Matematica e Fisica "E. De Giorgi"

Introduzione alla meccanica razionale

cinematica del punto materiale e di sistemi di punti materiali

atto di moto rigido, formule di Poisson, CIR e suo impiego

classificazione dei vincoli, cinematica del corpo rigido

principi della meccanica del punto materiale e di sistemi di punti materiali

equazioni cardinali della meccanica

energie, lavori e teoremi di conservazione

baricentro e momento di inerzia

quantità di moto e momento angolar per il corpo rigido

statica e dinamica dei corpi rigidi

principio dei lavori virtuali

formulazione Lagrangiana della meccanica

integrali primi e simmetrie di Noether

dalle equazion di Lagrange a quelle di Hamilton

stabilità delle perturbazioni  ed analisi qualitativa dei moti

1. Meccanica Razionale. Biscari, P., Ruggeri, T., Saccomandi, G., Vianello, M. Springer (2016)

2. Appunti di Meccanica Razionale. Turzi S. (scaricabile dal sito del docente) 

MECCANICA RAZIONALE (MAT/07)
METODI MATEMATICI PER LA BIOLOGIA II

Corso di laurea SCIENZE BIOLOGICHE

Settore Scientifico Disciplinare MAT/06

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 34.0

Per immatricolati nel 2020/2021

Anno accademico di erogazione 2020/2021

Anno di corso 1

Semestre Secondo Semestre (dal 08/03/2021 al 11/06/2021)

Lingua ITALIANO

Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)

Nessuno

Rudimenti di teoria della probabilità ("problemi diretti", prima parte), rudimenti di inferenza statistica ("problemi inversi", seconda parte) ed applicazioni di modelli matematici semplici a problemi biologici (terza parte).

Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte). Il corso si chiude (terza parte) mostrando allo studente come  usare semplici modelli matematici per descrivere quantitativamente semplici fenomeni biologici.

Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)

L'esame consta nel superamento di una prova orale (gemellata con il modulo "Metodi Matematici per la Biologia 1" gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale

In concomitanza degli appelli del primo modulo: il corso è unico, è diviso in due moduli (il primo impartito dalla Professoressa Mangino, il secondo da Adriano)

Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.

-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità 
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale

-Inferenza statistica: generalità degli stimatori 

-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA) 

-Comunicazione lungo una linea rumorosa (link youtube https://www.youtube.com/watch?v=rzg_CavQI_M&ab_channel=MITOpenCourseWare )

-il Teorema di Shannon: la definizione di entropia come misura di informazione ed il principio di massima entropia in teoria dell'informazione

-Dinamica di popolazione, modelli di Malthus e logistici generalizzati, modello preda-predatore di Lotka-Volterra.

 

M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.

METODI MATEMATICI PER LA BIOLOGIA II (MAT/06)
Metodi matematici per l'intelligenza artificiale

Corso di laurea MATEMATICA

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea Magistrale

Crediti 9.0

Ripartizione oraria Ore totali di attività frontale: 63.0

Per immatricolati nel 2020/2021

Anno accademico di erogazione 2020/2021

Anno di corso 1

Semestre Secondo Semestre (dal 22/02/2021 al 28/05/2021)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

Laurea Triennale in Matematica o Fisica 

il corso offre una prospettiva storica sul ruolo della matematica nella modellizazione della processazione d'informazione emergente in reti di neuroni (biologici o artificiali) in interazione, partendo dai primi modelli per l'emissione di un segnale elettrico dal singolo neurone per giungere alle moderne architetture del Deep Learning.

 

Il corso è diviso in tre sezioni principali:

 

1) La prima sezione serve ad assicurarci di condividere una conoscenza scientifica di base (pre-requisito ovviamente necessario per muovere insieme i primi passi verso un'intelaiatura matematica formale dell'Intelligenza Artificiale). In esterma sintesi si suppliranno allo studente rudimenti di Meccanica Statistica e di Processi Stocastici rivisitando insieme alcuni argomenti fondamentali (adattati per questo corso) di pertinenza canonica di queste due discipline.

 

2) La seconda sezione introduce invece modelli matematici di sistemi complessi (i “vetri di spin”), fondamentali per una successiva analisi matematica del funzionamento delle reti neurali, e sviluppa gli opportuni metodi matematici necessari alla loro descrizione ed alla comprensione della loro fenomenologia (i.e. la rottura spontanea di simmetria di replica di Parisi): si suppliranno allo studente tanto metodi euristici, di uso canonico in approcci di Fis02, e.g. “replica trick”, “message passage”, etc., quanto metodi rigorosi, di largo impiego in Mat07 & Mat06, e.g. “stochastic stability”, “cavity fields”, etc...

 

3) L'ultima e preponderante sezione è invece completamente dedita alle reti neurali: dopo una succinta descrizione (sempre in termini matematici) dei meccanismi cardine inerenti il neurone e la propagazione d'informazione tra neuroni (alla stregua della loro implementazione elettronica), si costruiranno “reti di neuroni” e se ne studieranno le proprietà emergenti (cioè non immediatamente deducibili guardando al comportamento del singolo neurone), persistendo in una prospettiva di meccanica statistica. Nello specifico, proveremo a vedere come queste reti siano in grado di apprendere ed astrarre guardando esempi suppliti dal mondo esterno e come, successivamente, queste usino quanto appreso per rispondere opportunamente, qualora stimolate, al mondo esterno. Capiremo inoltre come queste a volte possano sbagliare, e perché.

Il corso si chiuderà lambendo la frontiera della ricerca attuale nel campo dell'Intelligenza Artificiale ed, idealmente ed auspicabilmente, alla fine del corso lo studente dovrebbe essere in grado di poter proseguire autonomamente nell'approfondimento di tale disciplina. In particolare lo studente dovrebbe poter essere in grado, interagendo in team un domani, di essere complementare alle figure del computer-scientist e dell'ingegnere dell'informazione, interessandosi delle stesse tematiche di questi, ma offrendo una diversa prospettiva,
intrinsecamente più astratta e sintetica (a dire cioè dove la miriade di ricette di algoritmica che ogni giorno produciamo trovi una collocazione naturale) e per questo sempre più indispensabile nei gruppi di ricerca in AI.

 

Lo scopo del corso è condividere con lo studente i concetti salienti e, parimenti, fornire allo studente gli strumenti cardine, affinché questi possa continuare autonomamente la sua crescita culturale nell'ambito dell'Intelligenza Artificiale da una prospettiva prettamente formale: il presente corso non vuole essere un corso applicato di
“Machine Learning” (corso fruibile nelle Facoltà di Ingegneria da decadi) mentre brama essere un corso teorico di “Intelligenza Artificiale”.
L'ambizione ultima è riuscire a porsi domande sui principi primi di funzionamento dell'AI (traendo ispirazione da analogie con la processazione d'informazione in reti biologiche) e, ove possibile rispondere, capire come impostare il problema nel complesso all'interno di una cornice matematica consona.

Lezioni frontali

L'esame consta nel superamento di una prova orale

Da concordare con il docente (assolutamente malleabile su questo punto)

1. Richiami di Meccanica, Probabilità, Meccanica Statistica e Processi Stocastici
-Legge dei Grandi Numeri e Teoremi del Limite Centrale.
-Problema del Time-Reversal con esempi di PDE di interesse in Fisica (e.g. D'Alambert & Fourier).
-Il modello di Ehrenfest: analisi sia della statica che della dinamica, studio dell'entropia.
-L'approccio di Gibbs ed il metodo della “distribuzione piu' probabile”.
-L'approccio di Jaynes: una prospettiva del tutto inferenziale.
-Equivalenza (e non) tra le entropie di Gibbs e Shannon.
-La temperatura come rumore veloce: dal random walk all'equazione del calore.
-La master equation: Hamiltoniana come funzione di Lyapunov ed il Bilancio Dettagliato.
-L'inverse-problem nel caso più semplice (un sola specie di Curie-Weiss & via log-likelihood).


2. Fenomeni critici e transizioni di fase: verso i sistemi complessi                   

                          2.1: Metodi matematici per ricavare i diagrammi di fase
-Modello di Ising: approssimazione di campo medio, transizioni di fase e rotture di simmetrie.
-Proprietà degli stati puri: fattorizzazione delle funzioni di correlazione e clustering.
-Metodo del “punto di sella”, equazioni Dobrushin-Ruelle-Landford e disuguaglianze convesse.
-Metodo del campo di cavità ed analisi di Fourier.
                          2.2: Introduzione ai sistemi complessi
-misure quenched ed annealed, overlap e repliche.
-Ageing, rottura del time-translational-invariance e fenomenologia dei trap models.
-Spettro di una catena di Markov semplice e frustrata: rilassamento dei modi normali.
-Il modello di Sherrington-Kirkpatrick: analisi con “replica trick”, soluzione RS e crisi entropica.
-Analisi mediante “replica trick”: rottura di simmetria di replica di Parisi.
-Analisi mediante PDE: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimale.
-Analisi mediante “stochastic stability & cavity fields”: approccio à la Guerra.

 

3. Elementi di Intelligenza Artificiale: le reti neurali
-Il quadro storico nel quale è nata l'AI: tanti contributi da diverse discipline.
-La “cable theory” di Hodking-Huxley ed il neurone “integrate & fire” di Stein.
-Il neurone di McCulloch & Pitts: la meccanica statistica come logica rumorosa.
-Il riflesso condizionato di Pavlov mediante dinamica stocastica à la Glauber.
                        3.1: Dinamica neurale
-La memoria associativa e le reti neuronali: la proposta di Hebb.
-Il modello di Mattis, trasformazioni di gauge locali e storage di un bit di informazione.
-Il modello di Hopfield a basso carico con il metodo della log-constrained entropy.
-Il modello di Hopfield ad alto carico con il replica trick: Teoria di Amit-Gutfreund-Sompolinsky
-Il Perceptrone di Rosenblatt e la critica di Minsky&Papert.
-L'ottimizzatore NP di Hopfield-Tank (applicazione al commesso viaggiatore)
                       3.2: Dinamica sinaptica
-Apprendimento delle Boltzmann machines: scenario studente-allievo (supervised learning).
-Apprendimento delle Boltzmann machines: scenario non supervisionato (contrastive divergence).
-Equivalenza tra retrieval in reti di Hopfield e learning in macchine di Boltzmann.
-Apprendimento in reti dense: l'emergere del trade-off tra risoluzione e storage.
-Reti neurali che dormono e sognano: come distruggere gli stati di spin-glass
-Reti neurali gerarchiche e multi-tasking: robustezza metodologica alla volta della Biologia.

[Amit]          D.J. Amit, Modeling Brain Functions, Cambridge Press (1985).
[Barra]         A. Barra, Dispense specifiche per questo corso (2019).
[Coolen]      A.C.C. Coolen, R . Kuhn, P. Sollich, Theory of Neural Information Processing Systems, Oxford Press (2005).

[MacKay]    D.J.C. MacKay, Information theory, Inference and Learning Algorithms, Cambridge Press (2018).

Metodi matematici per l'intelligenza artificiale (MAT/07)
MATEMATICA

Corso di laurea VITICOLTURA ED ENOLOGIA

Settore Scientifico Disciplinare MAT/09

Tipo corso di studio Laurea

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 48.0

Per immatricolati nel 2019/2020

Anno accademico di erogazione 2019/2020

Anno di corso 1

Semestre Primo Semestre (dal 30/09/2019 al 17/01/2020)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

Sede Lecce

Nessuno

Elementi di analisi: dal concetto di limite a quello di derivata ed integrale, volti allo studio di funzione e alla soluzione di elementari equazioni differenziali.

Elementi di probabilità distribuzioni salienti, leggi dei grandi numeri e teoremi del limite centrale (con attenzione alle loro violazioni per distribuzioni a potenza)

Elementi di inferenza statistica: principalmente principio di massima verosimiglianza ed inferenza Bayesiana

Fornire allo studente gli strumenti matematici indispensabili per poter proseguire nel percorso di studi. In particolare, da un lato, sviluppando la capacità di fare modelli (quindi volgendo attenzione ad elementi di analisi matematica ed algebra lineare), dall'altro intelaiando in esso le competenze per poter raccogliere ed analizzare dati sul campo (quindi focalizzandoci su rudimenti di probabilità ed inferenza statistica).

Lezioni frontali alla lavagna 

L'esame consta almeno nel superamento della prova scritta. Lo studente può poi mettere in discussione il voto del suo scritto con un ulteriore approfondimento orale (che, per quanto non obbligatorio, è comunque auspicato dal docente.

-Numeri, misure, errori e loro propagazione.

-Insiemi e loro proprietà.

-Introduzione elementare alla probabilità e definizioni salienti.

-Elementi di Probabilità discreta, lancio di dadi e monete (e relativa combinatoria)

-Elementi di Probabilità discreta: quantificatori e distribuzioni (e.g. Bernoulli)

-Teorema di Bayes e sue applicazioni

-Elementi di Analisi Matematica necessari per lo studio di funzione (e.g. limiti e derivate)

-Elementi di Analisi Matematica necessari per la risoluzione di ODE (e.g. integrali elementari)

-Probabilità Continua: densità di probabilità, funzione di  ripartizione, etc.

-Teorema del Limite Centrale e Legge dei Grandi Numeri: la distribuzione di Gauss (ed i suoi limiti) 

-Elementi di statistica: momenti campionari e massima verosimiglianza in casi elementari.

-Il metodo dei minimi quadrati e sue generalizzazioni.

Mario Abate, Matematica & Statistica (McGraw Hill Publisher)

MATEMATICA (MAT/09)
MECCANICA RAZIONALE

Corso di laurea INGEGNERIA INDUSTRIALE

Settore Scientifico Disciplinare MAT/07

Tipo corso di studio Laurea

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 54.0

Per immatricolati nel 2018/2019

Anno accademico di erogazione 2019/2020

Anno di corso 2

Semestre Secondo Semestre (dal 02/03/2020 al 05/06/2020)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

Sede Lecce

è opportuna una conoscenza di base dell'algebra lineare, dell'analisi matematica e della fisica generale

Il corso intende introdurre lo studente alla formalizzazione rigorosa della fisica generale, prestando particolare attenzione ai corpi rigidi, alla statica ed alla formulazione analitica della meccanica.

Fornire allo studenti i metodi matematici consoni per lo studio approfondito e rigoroso della Meccanica, con somma attenzione al suo telaio riduzionista

Lezioni frontali

L'esame si articola in una prova scritta e in una prova orale. La prova scritta si compone di due parti: la prima contiene domande a risposta multipla; la seconda, un esercizio di meccanica.

 

Per il superamento della prova scritta è necessario avere la sufficienza su entrambi le parti.

 

La prova orale è facoltativa per coloro che abbiano superato la prova scritta con un voto superiore a 21/30 e inferiore a 27/30. E’ invece obbligatoria in tutti gli altri casi.Il mancato superamento della prova orale comporta l'annullamento della rispettiva prova scritta.

Ricevimento Studenti: previa prenotazione via e-mail, nell'ufficio 455 del Dipartimento di Matematica e Fisica "E. De Giorgi"

Introduzione alla meccanica razionale

cinematica del punto materiale e di sistemi di punti materiali

atto di moto rigido, formule di Poisson, CIR e suo impiego

classificazione dei vincoli, cinematica del corpo rigido

principi della meccanica del punto materiale e di sistemi di punti materiali

equazioni cardinali della meccanica

energie, lavori e teoremi di conservazione

baricentro e momento di inerzia

quantità di moto e momento angolar per il corpo rigido

statica e dinamica dei corpi rigidi

principio dei lavori virtuali

formulazione Lagrangiana della meccanica

integrali primi e simmetrie di Noether

dalle equazion di Lagrange a quelle di Hamilton

stabilità delle perturbazioni  ed analisi qualitativa dei moti

1. Meccanica Razionale. Biscari, P., Ruggeri, T., Saccomandi, G., Vianello, M. Springer (2016)

2. Appunti di Meccanica Razionale. Turzi S. (scaricabile dal sito del docente) 

MECCANICA RAZIONALE (MAT/07)
PROBABILITA' E STATISTICA

Corso di laurea SCIENZE BIOLOGICHE

Settore Scientifico Disciplinare MAT/06

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 34.0

Per immatricolati nel 2019/2020

Anno accademico di erogazione 2019/2020

Anno di corso 1

Semestre Primo Semestre (dal 07/10/2019 al 24/01/2020)

Lingua ITALIANO

Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)

Nessuno

Rudimenti di teoria della probabilità ("problemi diretti", prima parte) e rudimenti di inferenza statistica ("problemi inversi", seconda parte).

Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte).

Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)

L'esame consta nel superamento di una prova orale (gemellata con il modulo di Matematica gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale

Mutuati dal modulo di Matematica

Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.

-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità 
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale

-Inferenza statistica: generalità degli stimatori 

-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA) 

M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.

PROBABILITA' E STATISTICA (MAT/06)
PROBABILITA' E STATISTICA

Corso di laurea SCIENZE BIOLOGICHE

Settore Scientifico Disciplinare MAT/06

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 36.0

Per immatricolati nel 2018/2019

Anno accademico di erogazione 2018/2019

Anno di corso 1

Semestre Primo Semestre (dal 08/10/2018 al 25/01/2019)

Lingua ITALIANO

Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)

Nessuno

-Introduzione alla probabilità.
-Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg
-Probabilità Condizionata, Teorema di Bayes
-Calcolo Combinatorio, Distribuzione Binomiale, di Bernoulli e di Poisson
-Rappresentazione dei dati: diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza (campionarie)
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Test di ipotesi mediante pivot: test Z, T di Student, Chi-Quadro ed F (ANOVA) 
-Metodo dei minimi quadrati e sue generalizzazioni

Fornire allo studente gli strumenti imprescindibili (di tipo probabilistico e stocastico ovviamente) del Metodo Scientifico per permetterli di analizzare razionalmente (e possibilmente in maniera quantitativa) le successive nozioni di Fisica, Chimica e Biologia che si troverà a dover apprendere durante il percorso di laurea. Parimenti, si brama dotarlo di una consona capacità di analisi e trattamento dati (biologici) in vista di un suo futuro impiego, tanto nel mondo della ricerca quanto in quello del lavoro.

L'esame è unico per il corso di Matematica Probabilità e Statistica (10 CFU = 6 Matematica + 4 Probabilità & Statistica).
Il docente di riferimento per il modulo di Matematica è il Prof. Mauro Spreafico.

L'esame consta nel superamento di una prova scritta, la quale si compone (tipicamente) di cinque esercizi, 3 inerenti il modulo di Matematica e 2 inerenti il modulo di Probabilità & Statistica) mediante i quali cui si valutano i risultati di apprendimento complessivamente acquisiti dallo studente.

La votazione finale, ricavata dalla media ponderata (2/5 Probabilità e Statistica vs 3/5 Matematica) delle due prove, è espressa in trentesimi, con eventuale lode. Nell'attribuzione del punteggio finale si terrà conto: del livello di conoscenze teoriche acquisite (50%); della capacità di applicare le conoscenze acquisite (30%); dell’autonomia di giudizio (10%); delle abilità comunicative (10%).

Gli estremi temporali inerentemente le prove d'esame sono fruibili a questo indirizzo.

CORSO DI "MATEMATICA, PROBABILITA' & STATISTICA" PER BIOLOGI (6+4 CFU, PRIMO SEMESTRE) 
                                                
    Docenti: Prof. M. Spreafico (per il modulo di Matematica) & Dr. A. Barra (per il modulo di Statistica)
     
Obiettivi del modulo di Probabilità&Statistica: Scopo del corso è introdurre lo studente al ragionamento statistico, cercando di farne comprendere l'importanza tanto teorica quanto pratica nella ricerca. Si brama inoltre fornire lo stesso con i primi strumenti, tanto teorici quanto pratici, per l'elaborazione statistica dei dati. 

Programma (di massima) del corso:

Parte di Matematica curata dal Prof. Mauro Spreafico
 

-Numeri naturali, interi, razionali, reali. Massimo, minimo, estremo superiore e inferiore.
-Elementi di geometria analitica: equazioni della retta, della circonferenza, dell’ellisse della parabola e dell’iperbole.
-Cenni alle serie numeriche: la serie geometrica e la serie armonica.
-Il concetto di funzione. Funzioni notevoli: potenza, esponenziale, logaritmo, le funzioni circolari (o goniometriche).
-Successioni: limiti, loro proprietà, operazioni sui limiti, limiti notevoli, successioni monotone.
-Il numero e. Limiti di funzioni. Funzioni continue e loro proprietà.  Sistemi lineari.
-Derivate: definizione e proprietà. Operazioni sulle derivate. Derivate della funzione composta, derivata della funzione inversa.
-Derivate della funzioni elementari. Massimi e minimi relativi. Teoremi di Rolle e di Lagrange. Funzioni crescenti e decrescenti.
-Funzioni convesse. Teorema di de l’Hôpital. Studio di funzioni. Formula e serie di Taylor.
-Integrale definito e le sue proprietà. Teorema della media. Teorema fondamentale del Calcolo integrale. Integrale indefinito.
-Metodi d’integrazione: integrazione per parti, integrazione per sostituzione. Calcolo di aree e di volumi.
-Equazioni differenziali del primo e del secondo ordine. Equazioni lineari. Equazioni a variabili separate.  Equazioni di Bernoulli.

Parte di Statistica curata dal Dr. Adriano Barra

-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità 
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
- Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA) 
 

M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.

PROBABILITA' E STATISTICA (MAT/06)
STATISTICA MATEMATICA

Corso di laurea MATEMATICA

Settore Scientifico Disciplinare MAT/06

Tipo corso di studio Laurea

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 42.0

Per immatricolati nel 2016/2017

Anno accademico di erogazione 2018/2019

Anno di corso 3

Semestre Secondo Semestre (dal 25/02/2019 al 31/05/2019)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

E' certamente auspicabile aver seguito con profitto il corso di Probabilità, tenuto dal Professor Carlo Sempi.
Inoltre, può risultare appagante aver seguito anche il modulo di Termodinamica  (impartito all'interno del corso di Fisica III), tenuto dal Professor Gabriele Ingrosso. 

-Prontuario di Probabilità  (Definizioni cardine, distribuzioni classiche, Bayes, TLC e la distribuzione di Gauss)  
-Prontuario di Termodinamica (Primo e Secondo Principio, il telaio riduzionista e la distribuzione di Gauss)
-Un problema pratico: equivalenza  tra entripie di Shannon & Boltzmann. Analisi del modello di Ehrenfest
-Elementi di statistica multivariata
-Un problema pratico: il metodo dei minimi quadrati e le sue generalizzazioni. 
-Speranza e varianza di combinazioni di variabili aleatorie, coefficiente di Pearson.
-La distribuzione del Chi-quadro.
-Modelli statistici: Modelli esponenziali e  non.
-Teoria degli Stimatori.
-Il metodo dei momenti.
-Principio di Massima Verosimiglianza 
-Verosimiglianze per tutte le distribuzioni classiche e verosimiglianza profilo
-Misure di Informazione: Shannon vs Fisher
-Disuguaglianza di Fréchet-Cramer-Rao
-Rapporto di verosimiglianza come test d'ipotesi
-Statistiche sufficienti e statistiche sufficienti minimali
-Criterio di fattorizzazione di Neymann-Fisher
-Stimatori ottimi, identità di Wald e Teorema di Rao-Blackwell
-Intervalli di fiducia: il metodo del pivot e la genesi dei test d'ipotesi
-test Z, test T, test Chi^2, test F (con utilizzo delle tavole)
-Impostazione Bayesiana dell'inferenza
-Inferenza come forma di apprendimento: gli esempi di Erhenfest e dell'amico baro
-Stimatori bayesiani e test bayesiani per tutte le distribuzioni classiche
-Il Principio di Boltzmann dalla prospettiva di Jaynes nel linguaggio di Shannon
-Impostazione e soluzione asintotica del problema diretto (mediante Massima Entropia) per variabili booleane con prior, correlate o entrambe
-Impostazione e soluzione asintotica del problema inverso (mediante Massima Verosimiglianza) per variabili booleane con prior, correlate o entrambe

 Scopo principe del corso è introdurre lo studente al ragionamento statistico, cercando di farne comprendere l'importanza tanto teorica quanto pratica, in particolare nella ricerca scientifica. Si brama inoltre fornire lo stesso con i primi strumenti, tanto teorici quanto pratici, per l'elaborazione statistica dei dati.  

Nello specifico:

Conoscenze e comprensione: Alla fine del corso, lo studente dovrebbe possedere una solida preparazione all'analisi statistica dei dati con un ampio spettro di conoscenze di base di tipo analitico.

Capacità di applicare conoscenze e comprensione: Parimenti, lo studente dovrebbe essere capace di implementare i principali metodi statistici in ambito scientifico (allo studente sarà offerta una pletora di esempi -presi da diverse branche della Scienza moderna- mediante i quali prendere dimistichezza con l'applicazione dei metodi statistici.) Inoltre, questi dovrà essere capace di leggere e comprendere, in modo autonomo, testi di base di Statitica, tanto teorica quanto applicata.

Autonomia di giudizio: A corso impartito, lo studente dovrebbe essere in grado di affrontare un problema da una chiara prospettiva metodologica scientifica: saprà in primis formulare il problema in esame all'interno di un telaio inferenziale robusto, consono e ragionevole (i.e. “razionalmente affrontabile”). Una volta “tradotta” la complessità del fenomeno reale da descrivere in termini formali -”statistici” nello specifico- in modelli matematici egli saprà parimenti risolverli ed interpretare, nel contesto di pertinenza, i risultati ottenuti mediante l'analisi statistica degli stessi.

Abilità comunicative. La presentazione degli argomenti sarà svolta in modo da consentire allo studente di fruire di una padronanza lessicale consona al dialogo scientifico tecnico (quindi essenzialità, stringatezza, chiarezza e rigore esplicativo), necessaria per disquisire nella loro opportuna cornice problemi concreti, idee e soluzioni per gli stessi.

Capacità di apprendimento. Saranno indicati argomenti da approfondire, strettamente correlati con l’insegnamento (ma presi da contesti applicati il più possibile in ragione delle passioni proprie dello studente, al fine di stimolarne la capacità di apprendimento autonomo).

Lezioni frontali alla lavagna

L'esame consta in una prova orale.

-ripasso di Teoria della Probabiltà
-elementi di Statistica Multivariata
-distribuzioni marginali e condizionate
-metodo dei minimi quadrati
-propagazione dell'errore
-chi^2: concetti, idee, metodi, errori Gaussiani
-media, moda, mediana e varianza campionaria
-teoria degli stimatori: concetti cardine
-il metodo dei momenti (o dell'analogia)
-inferenza mediante principio di massima verosimiglianza (PMV): teoria
-PMV per Bernoulli
-PMV per Poisson
-MPV per Gauss
-Funzione di score, Informazione di Fisher ed Entropia di Shannon
-stimatore efficiente: generalità
-teorema di Cramer-Rao
-identità di Waald
-teorema di Rao-Blackwell
-l'approccio di Kullback-Leibler
-normalità asintotica degli stimatori
-statistiche sufficienti e minimali
-criterio di Neyman-Fisher ed analogie con la meccanica statistica nelle fattorizzazioni
-tecniche di stima per intervallo
-il metodo del pivot
-statistica Z
-statistica T
-intervalli di confidenza per Bernoulli, Poisson e Gauss
-confronto tra due gruppi e rapporto di (log)-verosimiglianza monotono
-elementi di inferenza à la Bayes
-il modello di Ehrenfest
-la statistica Bayesiana come modello di apprendimento
-effetto di una prior rilevante e caso di prior uniforme e log-uniforme)
-inferenza simultanea sui primi momenti di una distribuzione mediante marginalizzazione Bayesiana
-paradossi apparenti dell'inferenza Bayesiana: sulla distribuzione a priori
-il principio di massima entropia (PME) di Jaynes
-PME per variabili booleane indipendenti: calcolo esplicito della funzione costo e dell'entropia di Shannon
-PME per variabili booleane correlate: calcolo esplicito della funzione costo e dell'entropia di Shannon
-equivalenza tra le entropie di Shannon e Boltzmann-Gibbs

Gianfausto Salvadori, dispense per il corso di Statistica Matematica (fruibili presso il Dipartimento di Matematica e Fisica dell'Università del Salento)
Alessandra Faggionato, dispense per il corso di Statistica Matematica (fruibili presso il Dipartimento di Matematica di Sapienza Università di Roma)
Giorgio Parisi, Enzo Marinari, Trattatello di Probabilità, Dispense pubbliche disponibili in rete (2003)
Luigi Pace, Alessandra Salvan, Introduzione alla statistica II: Inferenza, verosimiglianza, modelli (Cedam, 2011)

STATISTICA MATEMATICA (MAT/06)
PROBABILITA' E STATISTICA

Corso di laurea SCIENZE BIOLOGICHE

Settore Scientifico Disciplinare MAT/06

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 0.0

Per immatricolati nel 2017/2018

Anno accademico di erogazione 2017/2018

Anno di corso 1

Semestre Primo Semestre (dal 02/10/2017 al 19/01/2018)

Lingua ITALIANO

Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)

Nessuno

-Introduzione alla probabilità.
-Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg
-Probabilità Condizionata, Teorema di Bayes
-Calcolo Combinatorio, Distribuzione Binomiale, di Bernoulli e di Poisson
-Rappresentazione dei dati: diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza (campionarie)
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Test di ipotesi mediante pivot: test Z, T di Student, Chi-Quadro ed F (ANOVA) 
-Metodo dei minimi quadrati e sue generalizzazioni

Fornire allo studente gli strumenti imprescindibili (di tipo probabilistico e stocastico ovviamente) del Metodo Scientifico per permetterli di analizzare razionalmente (e possibilmente in maniera quantitativa) le successive nozioni di Fisica, Chimica e Biologia che si troverà a dover apprendere durante il percorso di laurea. Parimenti, si brama dotarlo di una consona capacità di analisi e trattamento dati (biologici) in vista di un suo futuro impiego, tanto nel mondo della ricerca quanto in quello del lavoro.

L'esame è unico per il corso di Matematica Probabilità e Statistica (10 CFU = 6 Matematica + 4 Probabilità & Statistica).
Il docente di riferimento per il modulo di Matematica è il Prof. Mauro Spreafico.
L'esame consta nel superamento di una prova scritta, la quale si compone (tipicamente) di cinque esercizi, 3 inerenti il modulo di Matematica e 2 inerenti il modulo di Probabilità & Statistica).

 

M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.

PROBABILITA' E STATISTICA (MAT/06)
STATISTICA MATEMATICA

Corso di laurea MATEMATICA

Settore Scientifico Disciplinare MAT/06

Tipo corso di studio Laurea

Crediti 6.0

Ripartizione oraria Ore totali di attività frontale: 42.0

Per immatricolati nel 2015/2016

Anno accademico di erogazione 2017/2018

Anno di corso 3

Semestre Secondo Semestre (dal 26/02/2018 al 25/05/2018)

Lingua ITALIANO

Percorso PERCORSO COMUNE (999)

Sede Lecce

E' certamente auspicabile aver seguito con profitto il corso di Probabilità, tenuto dal Professor Carlo Sempi.
Inoltre, può risultare appagante aver seguito anche il modulo di Termodinamica  (impartito all'interno del corso di Fisica III), tenuto dal Professor Gabriele Ingrosso. 

-Prontuario di Probabilità  (Definizioni cardine, distribuzioni classiche, Bayes, TLC e la distribuzione di Gauss)  
-Prontuario di Termodinamica (Primo e Secondo Principio, il telaio riduzionista e la distribuzione di Gauss)
-Un problema pratico: equivalenza  tra entripie di Shannon & Boltzmann. Analisi del modello di Ehrenfest
-Elementi di statistica multivariata
-Un problema pratico: il metodo dei minimi quadrati e le sue generalizzazioni. 
-Speranza e varianza di combinazioni di variabili aleatorie, coefficiente di Pearson.
-La distribuzione del Chi-quadro.
-Modelli statistici: Modelli esponenziali e  non.
-Teoria degli Stimatori.
-Il metodo dei momenti.
-Principio di Massima Verosimiglianza 
-Verosimiglianze per tutte le distribuzioni classiche e verosimiglianza profilo
-Misure di Informazione: Shannon vs Fisher
-Disuguaglianza di Fréchet-Cramer-Rao
-Rapporto di verosimiglianza come test d'ipotesi
-Statistiche sufficienti e statistiche sufficienti minimali
-Criterio di fattorizzazione di Neymann-Fisher
-Stimatori ottimi, identità di Wald e Teorema di Rao-Blackwell
-Intervalli di fiducia: il metodo del pivot e la genesi dei test d'ipotesi
-test Z, test T, test Chi^2, test F (con utilizzo delle tavole)
-Impostazione Bayesiana dell'inferenza
-Inferenza come forma di apprendimento: gli esempi di Erhenfest e dell'amico baro
-Stimatori bayesiani e test bayesiani per tutte le distribuzioni classiche
-Il Principio di Boltzmann dalla prospettiva di Jaynes nel linguaggio di Shannon
-Impostazione e soluzione asintotica del problema diretto (mediante Massima Entropia) per variabili booleane con prior, correlate o entrambe
-Impostazione e soluzione asintotica del problema inverso (mediante Massima Verosimiglianza) per variabili booleane con prior, correlate o entrambe

 Scopo principe del corso è introdurre lo studente al ragionamento statistico, cercando di farne comprendere l'importanza tanto teorica quanto pratica, in particolare nella ricerca scientifica. Si brama inoltre fornire lo stesso con i primi strumenti, tanto teorici quanto pratici, per l'elaborazione statistica dei dati.   
 

L'esame consta in una prova orale.

-ripasso di Teoria della Probabiltà
-elementi di Statistica Multivariata
-distribuzioni marginali e condizionate
-metodo dei minimi quadrati
-propagazione dell'errore
-chi^2: concetti, idee, metodi, errori Gaussiani
-media, moda, mediana e varianza campionaria
-teoria degli stimatori: concetti cardine
-il metodo dei momenti (o dell'analogia)
-inferenza mediante principio di massima verosimiglianza (PMV): teoria
-PMV per Bernoulli
-PMV per Poisson
-MPV per Gauss
-Funzione di score, Informazione di Fisher ed Entropia di Shannon
-stimatore efficiente: generalità
-teorema di Cramer-Rao
-identità di Waald
-teorema di Rao-Blackwell
-l'approccio di Kullback-Leibler
-normalità asintotica degli stimatori
-statistiche sufficienti e minimali
-criterio di Neyman-Fisher ed analogie con la meccanica statistica nelle fattorizzazioni
-tecniche di stima per intervallo
-il metodo del pivot
-statistica Z
-statistica T
-intervalli di confidenza per Bernoulli, Poisson e Gauss
-confronto tra due gruppi e rapporto di (log)-verosimiglianza monotono
-elementi di inferenza à la Bayes
-il modello di Ehrenfest
-la statistica Bayesiana come modello di apprendimento
-effetto di una prior rilevante e caso di prior uniforme e log-uniforme)
-inferenza simultanea sui primi momenti di una distribuzione mediante marginalizzazione Bayesiana
-paradossi apparenti dell'inferenza Bayesiana: sulla distribuzione a priori
-il principio di massima entropia (PME) di Jaynes
-PME per variabili booleane indipendenti: calcolo esplicito della funzione costo e dell'entropia di Shannon
-PME per variabili booleane correlate: calcolo esplicito della funzione costo e dell'entropia di Shannon
-equivalenza tra le entropie di Shannon e Boltzmann-Gibbs

Gianfausto Salvadori, dispense per il corso di Statistica Matematica (fruibili presso il Dipartimento di Matematica e Fisica dell'Università del Salento)
Alessandra Faggionato, dispense per il corso di Statistica Matematica (fruibili presso il Dipartimento di Matematica di Sapienza Università di Roma)
Giorgio Parisi, Enzo Marinari, Trattatello di Probabilità, Dispense pubbliche disponibili in rete (2003)
Luigi Pace, Alessandra Salvan, Introduzione alla statistica II: Inferenza, verosimiglianza, modelli (Cedam, 2011)

STATISTICA MATEMATICA (MAT/06)
PROBABILITA' E STATISTICA

Corso di laurea SCIENZE BIOLOGICHE

Settore Scientifico Disciplinare MAT/06

Tipo corso di studio Laurea

Crediti 4.0

Ripartizione oraria Ore totali di attività frontale: 36.0

Per immatricolati nel 2016/2017

Anno accademico di erogazione 2016/2017

Anno di corso 1

Semestre Secondo Semestre (dal 13/03/2017 al 09/06/2017)

Lingua

Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)

Nessuno

-Introduzione alla probabilità.
-Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg
-Probabilità Condizionata, Teorema di Bayes
-Calcolo Combinatorio, Distribuzione Binomiale, di Bernoulli e di Poisson
-Rappresentazione dei dati: diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza (campionarie)
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Test di ipotesi mediante pivot: test Z, T di Student, Chi-Quadro ed F (ANOVA) 
-Metodo dei minimi quadrati e sue generalizzazioni

Fornire allo studente gli strumenti imprescindibili (di tipo probabilistico e stocastico ovviamente) del Metodo Scientifico per permetterli di analizzare razionalmente (e possibilmente in maniera quantitativa) le successive nozioni di Fisica, Chimica e Biologia che si troverà a dover apprendere durante il percorso di laurea. Parimenti, si brama dotarlo di una consona capacità di analisi e trattamento dati (biologici) in vista di un suo futuro impiego, tanto nel mondo della ricerca quanto in quello del lavoro.

L'esame è unico per il corso di Matematica Probabilità e Statistica (10 CFU = 6 Matematica + 4 Probabilità & Statistica).
Il docente di riferimento per il modulo di Matematica è il Prof. Mauro Spreafico.
L'esame consta nel superamento di una prova scritta, la quale si compone (tipicamente) di cinque esercizi, 3 inerenti il modulo di Matematica e 2 inerenti il modulo di Probabilità & Statistica).

 

M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.

PROBABILITA' E STATISTICA (MAT/06)

Tesi

A.A. 2016/2017: Sarah Perrone, Tesi triennale in Fisica.
Equivalenze strutturali tra relazioni di input-output in biochimica e in meccanica statistica.

A.A. 2017/2018: Giacomo Lo Russo, Tesi triennale in Biologia.
Biocibernetica: elementi di processazione di informazione in sistemi a carbonio e silicio.

A.A. 2017/2018: Matteo Notarnicola, Tesi triennale in Matematica.
Il limite termodinamico dell'energia libera nel modello di Hopfield.

A.A. 2017/2018:  Francesco Alemanno, Tesi magistrale in Fisica.
Intelligenza Artificiale nella fase R.E.M. 

A.A. 2017/2018: Giulio Colazzo, Tesi magistrale in Fisica.
Il principio di massima entropia per l'inferenza statistica di concentrazioni di chemochine su piastra LabOnChip

A.A. 2018/2019: Martino Centonze, Tesi magistrale in Fisica.
Statistical mechanics of the Sejnowski neural network.

A.A. 2018/2019: Simona Tarantino, Tesi triennale in Fisica.
Meccanica statistica delle reti neurali associative "multitasking".

A.A. 2018/2019: Alessandro Villani, Tesi trennale in Matematica.
Metodi matematici di impiego in immunologia teorica.

A.A 2018/2019: Miriam Aquaro, Tesi triennale in Fisica.
Equivalenze formali tra principi variazionali della meccanica analitica e della meccanica statistica.

A.A. 2019/2020: Linda Albanese, Tesi magistrale in Matematica.
Replica symmetry breaking in neural networks: rigorous results.

A.A. 2019/2020: Angela Nigro, Tesi magistrale in Matematica.
Metodi stocastici per l'epidemiologia: l'impiego delle catene di Markov su modelli SIR generalizzati.
 

A.A. 2019/2020: Chiara Cannazza, Tesi triennale in Matematica.
Elementi di robotica ed automazione: il caso dell'oscillatore instabile.

A.A. 2019/2020: Mino Graziano, Tesi triennale in Matematica.
Il perceptrone di Rosenblatt: dalle critiche di Minsky&Paperts la necessità di una rete neurale.


A.A. 2020/2021: Erica Antermide, Tesi magistrale in Matematica.
Approcci diretti ed inversi al quorum sensing. 

A.A. 2020/2021: Matteo Lotriglia, Tesi magistrale in Fisica.
La rotura di simmetria di replica e la linea di Nishimori.

A.A. 2020/2021: Miriam Aquaro, Tesi magistrale in Fisica.
Neural Networks cabable to learn by experience and optimize by dreaming

A.A. 2020/2021: Daniele Lotito, Tesi magistrale in Fisica.
Il principio di massima entropia con ritardo.

A.A. 2020/2021: Roberta DeMitri, Tesi triennale in Matematica.
Il simulated annealing per il problema del commesso viaggiatore.

 

Pubblicazioni

tutte le mie pubblicazioni scientifiche sono fruibili a questo indirizzo.

Grazie per l'attenzione.

Consulta le pubblicazioni su IRIS

Temi di ricerca

I miei interessi di ricerca sono (maldestramente) riassunti in questa pagina ed essenzialmente constano nell'applicazione della meccanica statistica dei sistemi complessi a problemi di Intelligenza Artificiale e Biologia.