
Adriano BARRA
Professore II Fascia (Associato)
Settore Scientifico Disciplinare MAT/07: FISICA MATEMATICA.
Dipartimento di Matematica e Fisica "Ennio De Giorgi"
Ex Collegio Fiorini - Via per Arnesano - LECCE (LE)
Ufficio, Piano terra
Telefono +39 0832 29 7601
Matematica & Fisica
Dipartimento di Matematica e Fisica "Ennio De Giorgi"
Ex Collegio Fiorini - Via per Arnesano - LECCE (LE)
Ufficio, Piano terra
Telefono +39 0832 29 7601
Matematica & Fisica
previo contatto e-mail quando si vuole
Ufficio n. 455 (primo piano Fiorini vecchio edificio)
Curriculum Vitae
il mio Curriculum Vitae è fruibile a questo indirizzo: https://www.adrianobarra.com/
Grazie per l'attenzione
Didattica
A.A. 2023/2024
LABORATORIO DI INTELLIGENZA ARTIFICIALE
Corso di laurea MATEMATICA
Tipo corso di studio Laurea Magistrale
Lingua ITALIANO
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Anno accademico di erogazione 2023/2024
Per immatricolati nel 2022/2023
Anno di corso 2
Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"
Percorso MATEMATICA PER L'INTELLIGENZA ARTIFICIALE
Sede Lecce
METODI MATEMATICI PER LA BIOLOGIA II
Corso di laurea SCIENZE BIOLOGICHE
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Anno accademico di erogazione 2023/2024
Per immatricolati nel 2023/2024
Anno di corso 1
Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI
Percorso PERCORSO GENERICO/COMUNE
Metodi matematici per l'intelligenza artificiale
Corso di laurea MATEMATICA
Tipo corso di studio Laurea Magistrale
Lingua ITALIANO
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Anno accademico di erogazione 2023/2024
Per immatricolati nel 2023/2024
Anno di corso 1
Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"
Percorso MATEMATICA PER L'INTELLIGENZA ARTIFICIALE
Sede Lecce
A.A. 2022/2023
MECCANICA RAZIONALE
Corso di laurea INGEGNERIA CIVILE
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 54.0
Anno accademico di erogazione 2022/2023
Per immatricolati nel 2021/2022
Anno di corso 2
Struttura DIPARTIMENTO DI INGEGNERIA DELL'INNOVAZIONE
Percorso PERCORSO COMUNE
Sede Lecce
METODI MATEMATICI PER LA BIOLOGIA II
Corso di laurea SCIENZE BIOLOGICHE
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Anno accademico di erogazione 2022/2023
Per immatricolati nel 2022/2023
Anno di corso 1
Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI
Percorso PERCORSO GENERICO/COMUNE
Metodi matematici per l'intelligenza artificiale
Corso di laurea MATEMATICA
Tipo corso di studio Laurea Magistrale
Lingua ITALIANO
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Anno accademico di erogazione 2022/2023
Per immatricolati nel 2022/2023
Anno di corso 1
Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"
Percorso MATEMATICA PER L'INTELLIGENZA ARTIFICIALE
Sede Lecce
A.A. 2021/2022
MECCANICA RAZIONALE
Corso di laurea INGEGNERIA INDUSTRIALE
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 54.0
Anno accademico di erogazione 2021/2022
Per immatricolati nel 2020/2021
Anno di corso 2
Struttura DIPARTIMENTO DI INGEGNERIA DELL'INNOVAZIONE
Percorso PERCORSO COMUNE
Sede Lecce
METODI MATEMATICI PER LA BIOLOGIA II
Corso di laurea SCIENZE BIOLOGICHE
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Anno accademico di erogazione 2021/2022
Per immatricolati nel 2021/2022
Anno di corso 1
Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI
Percorso PERCORSO GENERICO/COMUNE
Metodi matematici per l'intelligenza artificiale
Corso di laurea MATEMATICA
Tipo corso di studio Laurea Magistrale
Lingua ITALIANO
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Anno accademico di erogazione 2021/2022
Per immatricolati nel 2021/2022
Anno di corso 1
Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"
Percorso PERCORSO COMUNE
Sede Lecce
A.A. 2020/2021
MECCANICA RAZIONALE
Corso di laurea INGEGNERIA INDUSTRIALE
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 54.0
Anno accademico di erogazione 2020/2021
Per immatricolati nel 2019/2020
Anno di corso 2
Struttura DIPARTIMENTO DI INGEGNERIA DELL'INNOVAZIONE
Percorso PERCORSO COMUNE
Sede Lecce
METODI MATEMATICI PER LA BIOLOGIA II
Corso di laurea SCIENZE BIOLOGICHE
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Anno accademico di erogazione 2020/2021
Per immatricolati nel 2020/2021
Anno di corso 1
Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI
Percorso PERCORSO GENERICO/COMUNE
Metodi matematici per l'intelligenza artificiale
Corso di laurea MATEMATICA
Tipo corso di studio Laurea Magistrale
Lingua ITALIANO
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Anno accademico di erogazione 2020/2021
Per immatricolati nel 2020/2021
Anno di corso 1
Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"
Percorso PERCORSO COMUNE
A.A. 2019/2020
MATEMATICA
Corso di laurea VITICOLTURA ED ENOLOGIA
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 48.0
Anno accademico di erogazione 2019/2020
Per immatricolati nel 2019/2020
Anno di corso 1
Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI
Percorso PERCORSO COMUNE
Sede Lecce
MECCANICA RAZIONALE
Corso di laurea INGEGNERIA INDUSTRIALE
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 54.0
Anno accademico di erogazione 2019/2020
Per immatricolati nel 2018/2019
Anno di corso 2
Struttura DIPARTIMENTO DI INGEGNERIA DELL'INNOVAZIONE
Percorso PERCORSO COMUNE
Sede Lecce
PROBABILITA' E STATISTICA
Corso di laurea SCIENZE BIOLOGICHE
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Anno accademico di erogazione 2019/2020
Per immatricolati nel 2019/2020
Anno di corso 1
Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI
Percorso PERCORSO GENERICO/COMUNE
A.A. 2018/2019
PROBABILITA' E STATISTICA
Corso di laurea SCIENZE BIOLOGICHE
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 36.0
Anno accademico di erogazione 2018/2019
Per immatricolati nel 2018/2019
Anno di corso 1
Struttura DIPARTIMENTO DI SCIENZE E TECNOLOGIE BIOLOGICHE ED AMBIENTALI
Percorso PERCORSO GENERICO/COMUNE
STATISTICA MATEMATICA
Corso di laurea MATEMATICA
Tipo corso di studio Laurea
Lingua ITALIANO
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 42.0
Anno accademico di erogazione 2018/2019
Per immatricolati nel 2016/2017
Anno di corso 3
Struttura DIPARTIMENTO DI MATEMATICA E FISICA "ENNIO DE GIORGI"
Percorso PERCORSO COMUNE
LABORATORIO DI INTELLIGENZA ARTIFICIALE
Corso di laurea MATEMATICA
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea Magistrale
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Per immatricolati nel 2022/2023
Anno accademico di erogazione 2023/2024
Anno di corso 2
Semestre Secondo Semestre (dal 26/02/2024 al 07/06/2024)
Lingua ITALIANO
Percorso MATEMATICA PER L'INTELLIGENZA ARTIFICIALE (A227)
Sede Lecce
Aver seguito i corsi erogato durante il primo anno del curriculum specializzante "MIA" (Matematica per l'Intelligenza Artificiale)
Il corso vuole essere un corso sul trattamento dei dati, con particolare attenzione alla statistica ad altissima dimensionalità ed all'estrazione di informazione dai dati mediante le relative tecniche di Machine Learning e Neural Networks.
Lo studente, alla fine del corso, dovrebbe aver appreso una conoscenza, sia di base -per inquadrare opportunamente un nuovo problema- che avanzata -per selezionare la compagine di tecniche numeriche e di telai neurali ottimali per il trattamento del problema in esame- e dovrebbe parimenti essere in grado di estrarre informazione dai dati a disposizione del problema al fine di permetterne una descrizione quantitative e, ove possibile, una predizione del comportamento in regimi non esplorati durante la presa dati sul fenomeno in esame.
Sostanzialmente alla fine del corso lo studente dovrebbe poter essere in grado di entrare in un Laboratorio di Ricerca, o parimenti in un'azienda con una componente di ricerca&sviluppo, per intregrarsi prolificamente nel team di ricerca al fine di aiutare tanto nella pianificazione della presa dati inerentemente un fenomeno in esame quanto nell'estrazione di informazione riguardante tale fenomeno una volta terminata la fase di raccolta dei dati.
lezioni alla lavagna ed al calcolatore.
l'esame consta nella scrittura di un programma di "machine learning" o nella costruzione di una "rete neurale" specificatamente atti a risolvere un dato problema (precedentemente concordato con il docente) ed in un orale sui vari metodi numerici esposti durante il corso.
Concordabili con il docente.
Il programma esteso sarà fruibile da Settembre 2023: il corso sarà erogato per la prima volta nella primavera del 2024 e la costruzione dettagliata del corso è ancora oggetto di ultime limature.
Giorgio Parisi, Enzo Marinari, Luca Leuzzi, "Trattatello di Probabilità".
Adriano Barra, dispense del corso con annessi programmi al calcolatore.
Mattioli, "Teoria dei segnali e Teoria dei Sistemi".
Michael Gutmann, "exercises in Machine Learning: pen and paper"
LABORATORIO DI INTELLIGENZA ARTIFICIALE (MAT/07)
METODI MATEMATICI PER LA BIOLOGIA II
Corso di laurea SCIENZE BIOLOGICHE
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Per immatricolati nel 2023/2024
Anno accademico di erogazione 2023/2024
Anno di corso 1
Lingua
Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)
Nessuno
Rudimenti di teoria della probabilità ("problemi diretti", prima parte), rudimenti di inferenza statistica ("problemi inversi", seconda parte) ed applicazioni di modelli matematici semplici a problemi biologici (terza parte).
Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte). Il corso si chiude (terza parte) mostrando allo studente come usare semplici modelli matematici per descrivere quantitativamente semplici fenomeni biologici.
Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)
L'esame consta nel superamento di una prova orale (gemellata con il modulo "Metodi Matematici per la Biologia 1" gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale
In concomitanza degli appelli del primo modulo: il corso è unico, è diviso in due moduli (il primo impartito dalla Professoressa Mangino, il secondo da Adriano)
Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.
Gli studenti con OFA dovranno seguire uno dei corsi introduttivi alla matematica universitaria su Eduopen: conseguito l'attestato, in occasione delle prove scritte di Metodi Matematici per la Biologia potranno o sostenere l'esame scritto oppure svolgere 3 semplicissimi esercizi.
[a] Nel primo caso, se almeno un esercizio è fatto bene, possiamo dire che hanno recuperato l'Ofa.
[b] Nel secondo caso, almeno 2 esercizi devono essere svolti bene,
-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Inferenza statistica: generalità degli stimatori
-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA)
-Comunicazione lungo una linea rumorosa (link youtube https://www.youtube.com/watch?v=rzg_CavQI_M&ab_channel=MITOpenCourseWare )
-il Teorema di Shannon: la definizione di entropia come misura di informazione ed il principio di massima entropia in teoria dell'informazione
-Dinamica di popolazione, modelli di Malthus e logistici generalizzati, modello preda-predatore di Lotka-Volterra.
M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.
METODI MATEMATICI PER LA BIOLOGIA II (MAT/07)
Metodi matematici per l'intelligenza artificiale
Corso di laurea MATEMATICA
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea Magistrale
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Per immatricolati nel 2023/2024
Anno accademico di erogazione 2023/2024
Anno di corso 1
Semestre Secondo Semestre (dal 26/02/2024 al 07/06/2024)
Lingua ITALIANO
Percorso MATEMATICA PER L'INTELLIGENZA ARTIFICIALE (A227)
Sede Lecce
Conditio sine qua non è ovviamente solo una laurea Triennale in Matematica o Fisica, ma un'opportuna conoscenza dei seguenti argomenti permette una comprensione del corso significativamente migliore:
-Probabilità & Statistica
-Equazioni alle derivate parziali
-rudimenti di Meccanica Analitica
-rudimenti di Meccanica Statistica
il corso segue una prospettiva storica ed analizza (fornendo modelli e metodi espliciti in ogni dettaglio) il ruolo della matematica nella modellizazione della processazione d'informazione emergente in reti di neuroni (biologici o artificiali) in interazione, partendo dai primi modelli per l'emissione di un segnale elettrico dal singolo neurone per giungere alle moderne architetture del Deep Learning.
Il corso è diviso in tre sezioni principali:
1) La prima sezione serve ad assicurarci di condividere una conoscenza scientifica di base (pre-requisito ovviamente necessario per muovere insieme i primi passi verso un'intelaiatura matematica formale dell'Intelligenza Artificiale). In estrema sintesi si suppliranno allo studente rudimenti di Meccanica Statistica e di Processi Stocastici rivisitando insieme alcuni argomenti fondamentali (adattati per questo corso) di pertinenza canonica di queste due discipline. Per poter affrontare questi concetti sarà necessario una veloce ripasso di elementi di Meccanica, Probabilità e Statistica che saranno gli incipit del corso stesso.
2) La seconda sezione introduce invece metodi e modelli matematici archetipali per definire sistemi semplici e sistemi complessi in meccanica statistica, fondamentali per una successiva analisi matematica del funzionamento delle reti neurali da una prospettiva di Intelligenza Artificiale Teorica. In questa sezione sviluppiamo in dettaglio i metodi matematici necessari alla descrizione ed alla comprensione della fenomenologia che questi sistemi mostrano (dalla rottura spontanea di ergodicità alla rottura di simmetria di replica di Parisi) dotandoci tanto metodi euristici, di uso canonico in approcci di Fis02 (e.g. “replica trick”, “message passage”, etc.), quanto metodi rigorosi, di largo impiego in Mat06 & Mat07 (e.g. “stochastic stability”, “cavity fields”, etc.).
3) L'ultima e preponderante sezione è invece completamente dedita alle reti neurali: dopo una succinta descrizione (sempre in termini matematici) dei meccanismi cardine inerenti il neurone e la propagazione d'informazione tra neuroni (alla stregua della loro implementazione elettronica), vedremo i limiti della compuazione a singolo neurone guardandola da diverse prospettive. A seguire costruiremo quindi “reti di neuroni” e ne studieremo le proprietà emergenti (cioè non immediatamente deducibili guardando al comportamento del singolo neurone), persistendo in una prospettiva di meccanica statistica. Nello specifico, proveremo a vedere come queste reti siano in grado di apprendere ed astrarre guardando esempi suppliti dal mondo esterno e come, successivamente, queste usino quanto appreso per rispondere opportunamente, qualora stimolate, al mondo esterno. Capiremo inoltre come queste a volte possano sbagliare, e perché.
La sezione si chiuderà lambendo la frontiera della ricerca attuale nel campo dell'Intelligenza Artificiale Teorica: idealmente ed auspicabilmente, alla fine del corso lo studente dovrebbe essere in grado di poter proseguire autonomamente nell'approfondimento di tale disciplina. In particolare questi dovrebbe poter essere in grado, interagendo in team un domani, di svolgere un ruolo complementare alle figure del computer-scientist e dell'ingegnere dell'informazione, interessandosi alle loro stesse tematiche, ma offrendo una diversa prospettiva, intrinsecamente più astratta e sintetica (a dire cioè dove la miriade di ricette di algoritmica che ogni giorno produciamo trovi una collocazione naturale e la gestione stessa del gruppo diventi ottimizzata) e per questo sempre più indispensabile nei gruppi di ricerca in AI.
Nelle ultime due lezioni, tempo permettendo, ci permetteremo di aprire una finestra sulla processazione d'informazione in altri sistemi biologici (un esempio di processazione intra-cellulare ed uno extra-cellulare) come approfondimento al corso.
Il corso è strutturato in maniera "simmetrica" in questo senso: in medias res tratteremo tutti i modelli (i.e. Curie-Weiss, Sherrington-Kirkpatrick, Hopfield, Boltzmann) sempre mediante le stesse tecniche (punto-sella/replica trick, interpolazione à la Guerra e approcci mediante PDE) di volta in volta opportunamente plasmate sul modello in studio: questo dovrebbe agevolare lo studente nel prendere dimistichezza con le tecniche stesse.
Lo scopo del corso è condividere con lo studente i concetti salienti e, parimenti, fornire allo studente gli strumenti cardine, affinché questi possa continuare autonomamente la sua crescita culturale nell'ambito dell'Intelligenza Artificiale da una prospettiva prettamente formale: il presente corso brama essere un corso teorico di “Intelligenza Artificiale”.
L'ambizione ultima è riuscire a porsi domande sui principi primi di funzionamento dell'AI (traendo ispirazione da analogie con la processazione d'informazione in reti biologiche) e, ove possibile rispondere, capire come impostare il problema nel suo complesso all'interno di una cornice matematica consona affinché la reti neurale non sia vista assolutamente come una "black box".
Lezioni frontali
L'esame consta nel superamento di una prova orale
Da concordare con il docente (assolutamente malleabile su questo punto)
0. Introduzione al corso.
-Finalità del corso e modi operandi, panoramica, struttura e simmetrie del corso.
1. Richiami di Meccanica, Probabilità, Meccanica Statistica e Processi Stocastici
-Legge dei Grandi Numeri e Teoremi del Limite Centrale.
-Problema del Time-Reversal con esempi di PDE note in Fisica (e.g. D'Alambert & Fourier).
-Il modello di Ehrenfest: analisi dell'entropia sia in statica che in dinamica e check di coerenza.
-L'approccio di Gibbs alla "massima entropia" ed il metodo della “distribuzione più probabile”.
-Equivalenza (e non) tra le entropie di Gibbs e Shannon.
-La temperatura come rumore veloce: dal random walk all'equazione del calore.
-Il processo di Markov: stazionarietà, catene irriducibili, distribuzioni invarianti.
-La master equation: Hamiltoniana come funzione di Lyapunov, teorema del Bilancio Dettagliato.
2. Sistemi semplici e sistemi complessi nel linguaggio della meccanica statistica
2.1: il Curie-Weiss, archetipo della semplicità
-Preludio: Modello di Ising: approssimazione di campo medio, transizioni di fase e rotture di simmetrie.
-Preludio: stati puri & fattorizzazione delle funzioni di correlazione, clustering.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e sub-additività.
-Metodo del “punto di sella”e tecnica dell'interpolazione di Guerra
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi medainte campo di cavità ed analisi di Fourier: equivalenza tra shock e rottura di simmetria.
2.2: lo Sherrington-Kirkpatrick, archetipo della complessità
-Preludio: misure quenched ed annealed, overlap e repliche.
-Preludio: ageing, rottura del time-translational-invariance e fenomenologia dei trap models.
-Preludio: Spettro di una catena di Markov semplice e frustrata: rilassamento dei modi normali.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e super-additività.
-Metodo “replica trick”: soluzione replica simmetrica e crisi entropica.
-Analisi mediante “replica trick”: la rottura di simmetria di replica di Parisi.
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi mediante “stochastic stability & cavity fields”: approccio à la Guerra.
3. Elementi di Intelligenza Artificiale: le reti neurali
3.1: Dinamica neurale
-Il quadro storico nel quale è nata l'AI: tanti contributi da diverse discipline.
-La dinamica neurale come processo stocastico di Markov.
-Uno sguardo al neurone biologico: la “cable theory” di Hodking-Huxley ed il neurone “integrate & fire” di Stein.
-Uno sguardo al neurone artificiale: il modello di McCulloch & Pitts, la meccanica statistica come logica rumorosa.
-Il Perceptrone di Rosenblatt e la critica di Minsky&Papert: verso le reti.
-La memoria associativa e le reti neuronali: la proposta di Hebb per l'apprendimento.
-Il modello di Mattis, trasformazioni di gauge locali e storage spontaneo di un bit di informazione.
-La rete neurale di Hopfield a basso carico con il metodo della log-constrained entropy.
-La rete neurale di Hopfield ad alto carico con il replica trick: teoria di Amit-Gutfreund-Sompolinsky.
-La rete neurale di Hopfield ad alto carico con la tecnica dell'interpolazione di Guerra.
-L'ottimizzatore NP di Hopfield-Tank (il cervello del commesso viaggiatore).
-Il simulated-annealing e le transizioni di fase in AI (K-SAT): l'importanza dei diagrammi di fase.
3.2: Dinamica sinaptica
-L'inverse-problem nel caso più semplice (un sola specie di Curie-Weiss & via log-likelihood).
-Il modulo del riflesso condizionato di Pavlov mediante dinamica stocastica à la Glauber.
-Reti neurali feed-forward: addestramento mediante "back-propagation".
-L'approccio di Jaynes alla "massima entropia": una prospettiva del tutto inferenziale (anche per le reti random).
-Apprendimento delle Boltzmann machines: scenario studente-allievo (supervised learning).
-Apprendimento delle Boltzmann machines: scenario non supervisionato (contrastive divergence).
-Equivalenza tra reti neurali di Hopfield e Boltzmann machines mediante una prospettiva Bayesiana.
-Reti neurali dense: l'emergere del trade-off tra risoluzione e capacità di immagazzinamento.
-Reti neurali che dormono e sognano: come distruggere gli stati di spin-glass per ottimizzare la memoria.
-Reti neurali gerarchiche e multitasking: robustezza ispirata alla biologia.
-Reti neurali profonde: il deep learning e le statistiche power-law (scale-free).
4.Elementi di intelligenza biologica: approfondimenti (facoltativo)
-Cinetica di reazione di Micaelis-Menten, Hill e Koshland.
-L'emoglobina e la RMN per la mappatura neurale.
-Computazione à la Monod (esempio dell'orecchio e perdita d'informazione per il setting ottimale).
-La percezione visiva: i tre colori primari e lo spettro quantizzato.
-Le reti linfocitarie e la risposta immunitaria adattativa: riconoscimento e memorizzazione.
[Amit] D.J. Amit, Modeling Brain Functions, Cambridge Press (1985).
[Barra] A. Barra, Dispense specifiche per questo corso (2019).
[Coolen] T. Coolen, R . Kuhn, P. Sollich, Theory of Neural Information Processing Systems, Oxford Press (2005).
[MacKay] D.J.C. MacKay, Information theory, Inference and Learning Algorithms, Cambridge Press (2018).
Metodi matematici per l'intelligenza artificiale (MAT/07)
MECCANICA RAZIONALE
Corso di laurea INGEGNERIA CIVILE
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 54.0
Per immatricolati nel 2021/2022
Anno accademico di erogazione 2022/2023
Anno di corso 2
Semestre Secondo Semestre (dal 01/03/2023 al 09/06/2023)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
Sede Lecce
è opportuna una conoscenza di base dell'algebra lineare, dell'analisi matematica e della fisica generale
Il corso intende introdurre lo studente alla formalizzazione rigorosa della fisica generale, prestando particolare attenzione ai corpi rigidi, alla statica ed alla formulazione analitica della meccanica.
Fornire allo studenti i metodi matematici consoni per lo studio approfondito e rigoroso della Meccanica, con somma attenzione al suo telaio riduzionista
Lezioni frontali
L'esame si articola in una prova scritta e in una prova orale. La prova scritta si compone di due parti: la prima contiene domande a risposta multipla; la seconda, un esercizio di meccanica.
Per il superamento della prova scritta è necessario avere la sufficienza su entrambi le parti.
La prova orale è facoltativa per coloro che abbiano superato la prova scritta con un voto superiore a 21/30 e inferiore a 27/30. E’ invece obbligatoria in tutti gli altri casi.Il mancato superamento della prova orale comporta l'annullamento della rispettiva prova scritta.
Ricevimento Studenti: previa prenotazione via e-mail, nell'ufficio 455 del Dipartimento di Matematica e Fisica "E. De Giorgi"
Introduzione alla meccanica razionale
cinematica del punto materiale e di sistemi di punti materiali
atto di moto rigido, formule di Poisson, CIR e suo impiego
classificazione dei vincoli, cinematica del corpo rigido
principi della meccanica del punto materiale e di sistemi di punti materiali
equazioni cardinali della meccanica
energie, lavori e teoremi di conservazione
baricentro e momento di inerzia
quantità di moto e momento angolar per il corpo rigido
statica e dinamica dei corpi rigidi
principio dei lavori virtuali
statica analitica
stabilità delle perturbazioni e piccole oscillazioni
1. Meccanica Razionale. Biscari, P., Ruggeri, T., Saccomandi, G., Vianello, M. Springer (2016)
2. Appunti di Meccanica Razionale. Turzi S. (scaricabile dal sito del docente)
MECCANICA RAZIONALE (MAT/07)
METODI MATEMATICI PER LA BIOLOGIA II
Corso di laurea SCIENZE BIOLOGICHE
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Per immatricolati nel 2022/2023
Anno accademico di erogazione 2022/2023
Anno di corso 1
Semestre Secondo Semestre (dal 06/03/2023 al 09/06/2023)
Lingua
Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)
Nessuno
Rudimenti di teoria della probabilità ("problemi diretti", prima parte), rudimenti di inferenza statistica ("problemi inversi", seconda parte) ed applicazioni di modelli matematici semplici a problemi biologici (terza parte).
Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte). Il corso si chiude (terza parte) mostrando allo studente come usare semplici modelli matematici per descrivere quantitativamente semplici fenomeni biologici.
Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)
L'esame consta nel superamento di una prova orale (gemellata con il modulo "Metodi Matematici per la Biologia 1" gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale
In concomitanza degli appelli del primo modulo: il corso è unico, è diviso in due moduli (il primo impartito dalla Professoressa Mangino, il secondo da Adriano)
Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.
Gli studenti con OFA dovranno seguire uno dei corsi introduttivi alla matematica universitaria su Eduopen: conseguito l'attestato, in occasione delle prove scritte di Metodi Matematici per la Biologia potranno o sostenere l'esame scritto oppure svolgere 3 semplicissimi esercizi.
[a] Nel primo caso, se almeno un esercizio è fatto bene, possiamo dire che hanno recuperato l'Ofa.
[b] Nel secondo caso, almeno 2 esercizi devono essere svolti bene,
-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Inferenza statistica: generalità degli stimatori
-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA)
-Comunicazione lungo una linea rumorosa (link youtube https://www.youtube.com/watch?v=rzg_CavQI_M&ab_channel=MITOpenCourseWare )
-il Teorema di Shannon: la definizione di entropia come misura di informazione ed il principio di massima entropia in teoria dell'informazione
-Dinamica di popolazione, modelli di Malthus e logistici generalizzati, modello preda-predatore di Lotka-Volterra.
M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.
METODI MATEMATICI PER LA BIOLOGIA II (MAT/07)
Metodi matematici per l'intelligenza artificiale
Corso di laurea MATEMATICA
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea Magistrale
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Per immatricolati nel 2022/2023
Anno accademico di erogazione 2022/2023
Anno di corso 1
Semestre Secondo Semestre (dal 27/02/2023 al 09/06/2023)
Lingua ITALIANO
Percorso MATEMATICA PER L'INTELLIGENZA ARTIFICIALE (A227)
Sede Lecce
Conditio sine qua non è ovviamente solo una laurea Triennale in Matematica o Fisica, ma un'opportuna conoscenza dei seguenti argomenti permette una comprensione del corso significativamente migliore:
-Probabilità & Statistica
-Equazioni alle derivate parziali
-rudimenti di Meccanica Analitica
-rudimenti di Meccanica Statistica
il corso segue una prospettiva storica ed analizza (fornendo modelli e metodi espliciti in ogni dettaglio) il ruolo della matematica nella modellizazione della processazione d'informazione emergente in reti di neuroni (biologici o artificiali) in interazione, partendo dai primi modelli per l'emissione di un segnale elettrico dal singolo neurone per giungere alle moderne architetture del Deep Learning.
Il corso è diviso in tre sezioni principali:
1) La prima sezione serve ad assicurarci di condividere una conoscenza scientifica di base (pre-requisito ovviamente necessario per muovere insieme i primi passi verso un'intelaiatura matematica formale dell'Intelligenza Artificiale). In estrema sintesi si suppliranno allo studente rudimenti di Meccanica Statistica e di Processi Stocastici rivisitando insieme alcuni argomenti fondamentali (adattati per questo corso) di pertinenza canonica di queste due discipline. Per poter affrontare questi concetti sarà necessario una veloce ripasso di elementi di Meccanica, Probabilità e Statistica che saranno gli incipit del corso stesso.
2) La seconda sezione introduce invece metodi e modelli matematici archetipali per definire sistemi semplici e sistemi complessi in meccanica statistica, fondamentali per una successiva analisi matematica del funzionamento delle reti neurali da una prospettiva di Intelligenza Artificiale Teorica. In questa sezione sviluppiamo in dettaglio i metodi matematici necessari alla descrizione ed alla comprensione della fenomenologia che questi sistemi mostrano (dalla rottura spontanea di ergodicità alla rottura di simmetria di replica di Parisi) dotandoci tanto metodi euristici, di uso canonico in approcci di Fis02 (e.g. “replica trick”, “message passage”, etc.), quanto metodi rigorosi, di largo impiego in Mat06 & Mat07 (e.g. “stochastic stability”, “cavity fields”, etc.).
3) L'ultima e preponderante sezione è invece completamente dedita alle reti neurali: dopo una succinta descrizione (sempre in termini matematici) dei meccanismi cardine inerenti il neurone e la propagazione d'informazione tra neuroni (alla stregua della loro implementazione elettronica), vedremo i limiti della compuazione a singolo neurone guardandola da diverse prospettive. A seguire costruiremo quindi “reti di neuroni” e ne studieremo le proprietà emergenti (cioè non immediatamente deducibili guardando al comportamento del singolo neurone), persistendo in una prospettiva di meccanica statistica. Nello specifico, proveremo a vedere come queste reti siano in grado di apprendere ed astrarre guardando esempi suppliti dal mondo esterno e come, successivamente, queste usino quanto appreso per rispondere opportunamente, qualora stimolate, al mondo esterno. Capiremo inoltre come queste a volte possano sbagliare, e perché.
La sezione si chiuderà lambendo la frontiera della ricerca attuale nel campo dell'Intelligenza Artificiale Teorica: idealmente ed auspicabilmente, alla fine del corso lo studente dovrebbe essere in grado di poter proseguire autonomamente nell'approfondimento di tale disciplina. In particolare questi dovrebbe poter essere in grado, interagendo in team un domani, di svolgere un ruolo complementare alle figure del computer-scientist e dell'ingegnere dell'informazione, interessandosi alle loro stesse tematiche, ma offrendo una diversa prospettiva, intrinsecamente più astratta e sintetica (a dire cioè dove la miriade di ricette di algoritmica che ogni giorno produciamo trovi una collocazione naturale e la gestione stessa del gruppo diventi ottimizzata) e per questo sempre più indispensabile nei gruppi di ricerca in AI.
Nelle ultime due lezioni, tempo permettendo, ci permetteremo di aprire una finestra sulla processazione d'informazione in altri sistemi biologici (un esempio di processazione intra-cellulare ed uno extra-cellulare) come approfondimento al corso.
Il corso è strutturato in maniera "simmetrica" in questo senso: in medias res tratteremo tutti i modelli (i.e. Curie-Weiss, Sherrington-Kirkpatrick, Hopfield, Boltzmann) sempre mediante le stesse tecniche (punto-sella/replica trick, interpolazione à la Guerra e approcci mediante PDE) di volta in volta opportunamente plasmate sul modello in studio: questo dovrebbe agevolare lo studente nel prendere dimistichezza con le tecniche stesse.
Lo scopo del corso è condividere con lo studente i concetti salienti e, parimenti, fornire allo studente gli strumenti cardine, affinché questi possa continuare autonomamente la sua crescita culturale nell'ambito dell'Intelligenza Artificiale da una prospettiva prettamente formale: il presente corso brama essere un corso teorico di “Intelligenza Artificiale”.
L'ambizione ultima è riuscire a porsi domande sui principi primi di funzionamento dell'AI (traendo ispirazione da analogie con la processazione d'informazione in reti biologiche) e, ove possibile rispondere, capire come impostare il problema nel suo complesso all'interno di una cornice matematica consona affinché la reti neurale non sia vista assolutamente come una "black box".
Lezioni frontali
L'esame consta nel superamento di una prova orale
Da concordare con il docente (assolutamente malleabile su questo punto)
0. Introduzione al corso.
-Finalità del corso e modi operandi, panoramica, struttura e simmetrie del corso.
1. Richiami di Meccanica, Probabilità, Meccanica Statistica e Processi Stocastici
-Legge dei Grandi Numeri e Teoremi del Limite Centrale.
-Problema del Time-Reversal con esempi di PDE note in Fisica (e.g. D'Alambert & Fourier).
-Il modello di Ehrenfest: analisi dell'entropia sia in statica che in dinamica e check di coerenza.
-L'approccio di Gibbs alla "massima entropia" ed il metodo della “distribuzione più probabile”.
-Equivalenza (e non) tra le entropie di Gibbs e Shannon.
-La temperatura come rumore veloce: dal random walk all'equazione del calore.
-Il processo di Markov: stazionarietà, catene irriducibili, distribuzioni invarianti.
-La master equation: Hamiltoniana come funzione di Lyapunov, teorema del Bilancio Dettagliato.
2. Sistemi semplici e sistemi complessi nel linguaggio della meccanica statistica
2.1: il Curie-Weiss, archetipo della semplicità
-Preludio: Modello di Ising: approssimazione di campo medio, transizioni di fase e rotture di simmetrie.
-Preludio: stati puri & fattorizzazione delle funzioni di correlazione, clustering.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e sub-additività.
-Metodo del “punto di sella”e tecnica dell'interpolazione di Guerra
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi medainte campo di cavità ed analisi di Fourier: equivalenza tra shock e rottura di simmetria.
2.2: lo Sherrington-Kirkpatrick, archetipo della complessità
-Preludio: misure quenched ed annealed, overlap e repliche.
-Preludio: ageing, rottura del time-translational-invariance e fenomenologia dei trap models.
-Preludio: Spettro di una catena di Markov semplice e frustrata: rilassamento dei modi normali.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e super-additività.
-Metodo “replica trick”: soluzione replica simmetrica e crisi entropica.
-Analisi mediante “replica trick”: la rottura di simmetria di replica di Parisi.
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi mediante “stochastic stability & cavity fields”: approccio à la Guerra.
3. Elementi di Intelligenza Artificiale: le reti neurali
3.1: Dinamica neurale
-Il quadro storico nel quale è nata l'AI: tanti contributi da diverse discipline.
-La dinamica neurale come processo stocastico di Markov.
-Uno sguardo al neurone biologico: la “cable theory” di Hodking-Huxley ed il neurone “integrate & fire” di Stein.
-Uno sguardo al neurone artificiale: il modello di McCulloch & Pitts, la meccanica statistica come logica rumorosa.
-Il Perceptrone di Rosenblatt e la critica di Minsky&Papert: verso le reti.
-La memoria associativa e le reti neuronali: la proposta di Hebb per l'apprendimento.
-Il modello di Mattis, trasformazioni di gauge locali e storage spontaneo di un bit di informazione.
-La rete neurale di Hopfield a basso carico con il metodo della log-constrained entropy.
-La rete neurale di Hopfield ad alto carico con il replica trick: teoria di Amit-Gutfreund-Sompolinsky.
-La rete neurale di Hopfield ad alto carico con la tecnica dell'interpolazione di Guerra.
-L'ottimizzatore NP di Hopfield-Tank (il cervello del commesso viaggiatore).
-Il simulated-annealing e le transizioni di fase in AI (K-SAT): l'importanza dei diagrammi di fase.
3.2: Dinamica sinaptica
-L'inverse-problem nel caso più semplice (un sola specie di Curie-Weiss & via log-likelihood).
-Il modulo del riflesso condizionato di Pavlov mediante dinamica stocastica à la Glauber.
-Reti neurali feed-forward: addestramento mediante "back-propagation".
-L'approccio di Jaynes alla "massima entropia": una prospettiva del tutto inferenziale (anche per le reti random).
-Apprendimento delle Boltzmann machines: scenario studente-allievo (supervised learning).
-Apprendimento delle Boltzmann machines: scenario non supervisionato (contrastive divergence).
-Equivalenza tra reti neurali di Hopfield e Boltzmann machines mediante una prospettiva Bayesiana.
-Reti neurali dense: l'emergere del trade-off tra risoluzione e capacità di immagazzinamento.
-Reti neurali che dormono e sognano: come distruggere gli stati di spin-glass per ottimizzare la memoria.
-Reti neurali gerarchiche e multitasking: robustezza ispirata alla biologia.
-Reti neurali profonde: il deep learning e le statistiche power-law (scale-free).
4.Elementi di intelligenza biologica: approfondimenti (facoltativo)
-Cinetica di reazione di Micaelis-Menten, Hill e Koshland.
-L'emoglobina e la RMN per la mappatura neurale.
-Computazione à la Monod (esempio dell'orecchio e perdita d'informazione per il setting ottimale).
-La percezione visiva: i tre colori primari e lo spettro quantizzato.
-Le reti linfocitarie e la risposta immunitaria adattativa: riconoscimento e memorizzazione.
[Amit] D.J. Amit, Modeling Brain Functions, Cambridge Press (1985).
[Barra] A. Barra, Dispense specifiche per questo corso (2019).
[Coolen] T. Coolen, R . Kuhn, P. Sollich, Theory of Neural Information Processing Systems, Oxford Press (2005).
[MacKay] D.J.C. MacKay, Information theory, Inference and Learning Algorithms, Cambridge Press (2018).
Metodi matematici per l'intelligenza artificiale (MAT/07)
MECCANICA RAZIONALE
Corso di laurea INGEGNERIA INDUSTRIALE
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 54.0
Per immatricolati nel 2020/2021
Anno accademico di erogazione 2021/2022
Anno di corso 2
Semestre Secondo Semestre (dal 01/03/2022 al 10/06/2022)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
Sede Lecce
è opportuna una conoscenza di base dell'algebra lineare, dell'analisi matematica e della fisica generale
Il corso intende introdurre lo studente alla formalizzazione rigorosa della fisica generale, prestando particolare attenzione ai corpi rigidi, alla statica ed alla formulazione analitica della meccanica.
Fornire allo studenti i metodi matematici consoni per lo studio approfondito e rigoroso della Meccanica, con somma attenzione al suo telaio riduzionista
Lezioni frontali
L'esame si articola in una prova scritta e in una prova orale. La prova scritta si compone di due parti: la prima contiene domande a risposta multipla; la seconda, un esercizio di meccanica.
Per il superamento della prova scritta è necessario avere la sufficienza su entrambi le parti.
La prova orale è facoltativa per coloro che abbiano superato la prova scritta con un voto superiore a 21/30 e inferiore a 27/30. E’ invece obbligatoria in tutti gli altri casi.Il mancato superamento della prova orale comporta l'annullamento della rispettiva prova scritta.
Ricevimento Studenti: previa prenotazione via e-mail, nell'ufficio 455 del Dipartimento di Matematica e Fisica "E. De Giorgi"
Introduzione alla meccanica razionale
cinematica del punto materiale e di sistemi di punti materiali
atto di moto rigido, formule di Poisson, CIR e suo impiego
classificazione dei vincoli, cinematica del corpo rigido
principi della meccanica del punto materiale e di sistemi di punti materiali
equazioni cardinali della meccanica
energie, lavori e teoremi di conservazione
baricentro e momento di inerzia
quantità di moto e momento angolar per il corpo rigido
statica e dinamica dei corpi rigidi
principio dei lavori virtuali
formulazione Lagrangiana della meccanica
integrali primi e simmetrie di Noether
dalle equazion di Lagrange a quelle di Hamilton
stabilità delle perturbazioni ed analisi qualitativa dei moti
1. Meccanica Razionale. Biscari, P., Ruggeri, T., Saccomandi, G., Vianello, M. Springer (2016)
2. Appunti di Meccanica Razionale. Turzi S. (scaricabile dal sito del docente)
MECCANICA RAZIONALE (MAT/07)
METODI MATEMATICI PER LA BIOLOGIA II
Corso di laurea SCIENZE BIOLOGICHE
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Per immatricolati nel 2021/2022
Anno accademico di erogazione 2021/2022
Anno di corso 1
Semestre Secondo Semestre (dal 07/03/2022 al 10/06/2022)
Lingua
Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)
Nessuno
Rudimenti di teoria della probabilità ("problemi diretti", prima parte), rudimenti di inferenza statistica ("problemi inversi", seconda parte) ed applicazioni di modelli matematici semplici a problemi biologici (terza parte).
Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte). Il corso si chiude (terza parte) mostrando allo studente come usare semplici modelli matematici per descrivere quantitativamente semplici fenomeni biologici.
Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)
L'esame consta nel superamento di una prova orale (gemellata con il modulo "Metodi Matematici per la Biologia 1" gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale
In concomitanza degli appelli del primo modulo: il corso è unico, è diviso in due moduli (il primo impartito dalla Professoressa Mangino, il secondo da Adriano)
Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.
Gli studenti con OFA dovranno seguire uno dei corsi introduttivi alla matematica universitaria su Eduopen: conseguito l'attestato, in occasione delle prove scritte di Metodi Matematici per la Biologia potranno o sostenere l'esame scritto oppure svolgere 3 semplicissimi esercizi.
[a] Nel primo caso, se almeno un esercizio è fatto bene, possiamo dire che hanno recuperato l'Ofa.
[b] Nel secondo caso, almeno 2 esercizi devono essere svolti bene,
-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Inferenza statistica: generalità degli stimatori
-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA)
-Comunicazione lungo una linea rumorosa (link youtube https://www.youtube.com/watch?v=rzg_CavQI_M&ab_channel=MITOpenCourseWare )
-il Teorema di Shannon: la definizione di entropia come misura di informazione ed il principio di massima entropia in teoria dell'informazione
-Dinamica di popolazione, modelli di Malthus e logistici generalizzati, modello preda-predatore di Lotka-Volterra.
M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.
METODI MATEMATICI PER LA BIOLOGIA II (MAT/07)
Metodi matematici per l'intelligenza artificiale
Corso di laurea MATEMATICA
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea Magistrale
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Per immatricolati nel 2021/2022
Anno accademico di erogazione 2021/2022
Anno di corso 1
Semestre Secondo Semestre (dal 21/02/2022 al 27/05/2022)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
Sede Lecce
Conditio sine qua non è ovviamente solo una laurea Triennale in Matematica o Fisica, ma un'opportuna conoscenza dei seguenti argomenti permette una comprensione del corso significativamente migliore:
-Statistica elementare
-Equazioni alle derivate parziali
-Meccanica analitica
-Termodinamica/rudimenti di meccanica statistica
il corso segue una prospettiva storica ed analizza (fornendo modelli e metodi espliciti in ogni dettaglio) il ruolo della matematica nella modellizazione della processazione d'informazione emergente in reti di neuroni (biologici o artificiali) in interazione, partendo dai primi modelli per l'emissione di un segnale elettrico dal singolo neurone per giungere alle moderne architetture del Deep Learning.
Il corso è diviso in tre sezioni principali:
1) La prima sezione serve ad assicurarci di condividere una conoscenza scientifica di base (pre-requisito ovviamente necessario per muovere insieme i primi passi verso un'intelaiatura matematica formale dell'Intelligenza Artificiale). In estrema sintesi si suppliranno allo studente rudimenti di Meccanica Statistica e di Processi Stocastici rivisitando insieme alcuni argomenti fondamentali (adattati per questo corso) di pertinenza canonica di queste due discipline. Per poter affrontare questi concetti sarà necessario una veloce ripasso di elementi di Meccanica, Probabilità e Statistica che saranno gli incipit del corso stesso.
2) La seconda sezione introduce invece metodi e modelli matematici archetipali per definire sistemi semplici e sistemi complessi in meccanica statistica, fondamentali per una successiva analisi matematica del funzionamento delle reti neurali da una prospettiva di Intelligenza Artificiale Teorica. In questa sezione sviluppiamo in dettaglio i metodi matematici necessari alla descrizione ed alla comprensione della fenomenologia che questi sistemi mostrano (dalla rottura spontanea di ergodicità alla rottura di simmetria di replica di Parisi) dotandoci tanto metodi euristici, di uso canonico in approcci di Fis02 (e.g. “replica trick”, “message passage”, etc.), quanto metodi rigorosi, di largo impiego in Mat06 & Mat07 (e.g. “stochastic stability”, “cavity fields”, etc.).
3) L'ultima e preponderante sezione è invece completamente dedita alle reti neurali: dopo una succinta descrizione (sempre in termini matematici) dei meccanismi cardine inerenti il neurone e la propagazione d'informazione tra neuroni (alla stregua della loro implementazione elettronica), vedremo i limiti della compuazione a singolo neurone guardandola da diverse prospettive. A seguire costruiremo quindi “reti di neuroni” e ne studieremo le proprietà emergenti (cioè non immediatamente deducibili guardando al comportamento del singolo neurone), persistendo in una prospettiva di meccanica statistica. Nello specifico, proveremo a vedere come queste reti siano in grado di apprendere ed astrarre guardando esempi suppliti dal mondo esterno e come, successivamente, queste usino quanto appreso per rispondere opportunamente, qualora stimolate, al mondo esterno. Capiremo inoltre come queste a volte possano sbagliare, e perché.
La sezione si chiuderà lambendo la frontiera della ricerca attuale nel campo dell'Intelligenza Artificiale Teorica: idealmente ed auspicabilmente, alla fine del corso lo studente dovrebbe essere in grado di poter proseguire autonomamente nell'approfondimento di tale disciplina. In particolare questi dovrebbe poter essere in grado, interagendo in team un domani, di svolgere un ruolo complementare alle figure del computer-scientist e dell'ingegnere dell'informazione, interessandosi alle loro stesse tematiche, ma offrendo una diversa prospettiva, intrinsecamente più astratta e sintetica (a dire cioè dove la miriade di ricette di algoritmica che ogni giorno produciamo trovi una collocazione naturale e la gestione stessa del gruppo diventi ottimizzata) e per questo sempre più indispensabile nei gruppi di ricerca in AI.
Nelle ultime due lezioni, tempo permettendo, ci permetteremo di aprire una finestra sulla processazione d'informazione in altri sistemi biologici (un esempio di processazione intra-cellulare ed uno extra-cellulare) come approfondimento al corso.
Il corso è strutturato in maniera "simmetrica" in questo senso: in medias res tratteremo tutti i modelli (i.e. Curie-Weiss, Sherrington-Kirkpatrick, Hopfield, Boltzmann) sempre mediante le stesse tecniche (punto-sella/replica trick, interpolazione à la Guerra e approcci mediante PDE) di volta in volta opportunamente plasmate sul modello in studio: questo dovrebbe agevolare lo studente nel prendere dimistichezza con le tecniche stesse.
Lo scopo del corso è condividere con lo studente i concetti salienti e, parimenti, fornire allo studente gli strumenti cardine, affinché questi possa continuare autonomamente la sua crescita culturale nell'ambito dell'Intelligenza Artificiale da una prospettiva prettamente formale: il presente corso non vuole essere un corso applicato di
“Machine Learning” (corso fruibile nelle Facoltà di Ingegneria da decadi) mentre brama essere un corso teorico di “Intelligenza Artificiale”.
L'ambizione ultima è riuscire a porsi domande sui principi primi di funzionamento dell'AI (traendo ispirazione da analogie con la processazione d'informazione in reti biologiche) e, ove possibile rispondere, capire come impostare il problema nel suo complesso all'interno di una cornice matematica consona.
Lezioni frontali
L'esame consta nel superamento di una prova orale
Da concordare con il docente (assolutamente malleabile su questo punto)
0. Introduzione al corso.
-Finalità del corso e modi operandi, panoramica, struttura e simmetrie del corso.
1. Richiami di Meccanica, Probabilità, Meccanica Statistica e Processi Stocastici
-Legge dei Grandi Numeri e Teoremi del Limite Centrale.
-Problema del Time-Reversal con esempi di PDE note in Fisica (e.g. D'Alambert & Fourier).
-Il modello di Ehrenfest: analisi dell'entropia sia in statica che in dinamica e check di coerenza.
-L'approccio di Gibbs alla "massima entropia" ed il metodo della “distribuzione più probabile”.
-Equivalenza (e non) tra le entropie di Gibbs e Shannon.
-La temperatura come rumore veloce: dal random walk all'equazione del calore.
-Il processo di Markov: stazionarietà, catene irriducibili, distribuzioni invarianti.
-La master equation: Hamiltoniana come funzione di Lyapunov, teorema del Bilancio Dettagliato.
2. Sistemi semplici e sistemi complessi nel linguaggio della meccanica statistica
2.1: il Curie-Weiss, archetipo della semplicità
-Preludio: Modello di Ising: approssimazione di campo medio, transizioni di fase e rotture di simmetrie.
-Preludio: stati puri & fattorizzazione delle funzioni di correlazione, clustering.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e sub-additività.
-Metodo del “punto di sella”e tecnica dell'interpolazione di Guerra
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi medainte campo di cavità ed analisi di Fourier: equivalenza tra shock e rottura di simmetria.
2.2: lo Sherrington-Kirkpatrick, archetipo della complessità
-Preludio: misure quenched ed annealed, overlap e repliche.
-Preludio: ageing, rottura del time-translational-invariance e fenomenologia dei trap models.
-Preludio: Spettro di una catena di Markov semplice e frustrata: rilassamento dei modi normali.
-Teoremi di esistenza: lemma di Fakete, interpolazione convessa e super-additività.
-Metodo “replica trick”: soluzione replica simmetrica e crisi entropica.
-Analisi mediante “replica trick”: la rottura di simmetria di replica di Parisi.
-Analisi mediante PDEs: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimo.
-Analisi mediante “stochastic stability & cavity fields”: approccio à la Guerra.
3. Elementi di Intelligenza Artificiale: le reti neurali
3.1: Dinamica neurale
-Il quadro storico nel quale è nata l'AI: tanti contributi da diverse discipline.
-La dinamica neurale come processo stocastico di Markov.
-Uno sguardo al neurone biologico: la “cable theory” di Hodking-Huxley ed il neurone “integrate & fire” di Stein.
-Uno sguardo al neurone artificiale: il modello di McCulloch & Pitts, la meccanica statistica come logica rumorosa.
-Il Perceptrone di Rosenblatt e la critica di Minsky&Papert: verso le reti.
-La memoria associativa e le reti neuronali: la proposta di Hebb per l'apprendimento.
-Il modello di Mattis, trasformazioni di gauge locali e storage spontaneo di un bit di informazione.
-La rete neurale di Hopfield a basso carico con il metodo della log-constrained entropy.
-La rete neurale di Hopfield ad alto carico con il replica trick: teoria di Amit-Gutfreund-Sompolinsky.
-La rete neurale di Hopfield ad alto carico con la tecnica dell'interpolazione di Guerra.
-L'ottimizzatore NP di Hopfield-Tank (il cervello del commesso viaggiatore).
-Il simulated-annealing e le transizioni di fase in AI (K-SAT): l'importanza dei diagrammi di fase.
3.2: Dinamica sinaptica
-L'inverse-problem nel caso più semplice (un sola specie di Curie-Weiss & via log-likelihood).
-Il modulo del riflesso condizionato di Pavlov mediante dinamica stocastica à la Glauber.
-Reti neurali feed-forward: addestramento mediante "back-propagation".
-L'approccio di Jaynes alla "massima entropia": una prospettiva del tutto inferenziale (anche per le reti random).
-Apprendimento delle Boltzmann machines: scenario studente-allievo (supervised learning).
-Apprendimento delle Boltzmann machines: scenario non supervisionato (contrastive divergence).
-Equivalenza tra reti neurali di Hopfield e Boltzmann machines mediante una prospettiva Bayesiana.
-Reti neurali dense: l'emergere del trade-off tra risoluzione e capacità di immagazzinamento.
-Reti neurali che dormono e sognano: come distruggere gli stati di spin-glass per ottimizzare la memoria.
-Reti neurali gerarchiche e multitasking: robustezza ispirata alla biologia.
-Reti neurali profonde: il deep learning e le statistiche power-law (scale-free).
4.Elementi di intelligenza biologica: approfondimenti (facoltativo)
-Cinetica di reazione di Micaelis-Menten, Hill e Koshland.
-L'emoglobina e la RMN per la mappatura neurale.
-Computazione à la Monod (esempio dell'orecchio e perdita d'informazione per il setting ottimale).
-La percezione visiva: i tre colori primari e lo spettro quantizzato.
-Le reti linfocitarie e la risposta immunitaria adattativa: riconoscimento e memorizzazione.
[Amit] D.J. Amit, Modeling Brain Functions, Cambridge Press (1985).
[Barra] A. Barra, Dispense specifiche per questo corso (2019).
[Coolen] T. Coolen, R . Kuhn, P. Sollich, Theory of Neural Information Processing Systems, Oxford Press (2005).
[MacKay] D.J.C. MacKay, Information theory, Inference and Learning Algorithms, Cambridge Press (2018).
Metodi matematici per l'intelligenza artificiale (MAT/07)
MECCANICA RAZIONALE
Corso di laurea INGEGNERIA INDUSTRIALE
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 54.0
Per immatricolati nel 2019/2020
Anno accademico di erogazione 2020/2021
Anno di corso 2
Semestre Secondo Semestre (dal 01/03/2021 al 11/06/2021)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
Sede Lecce
è opportuna una conoscenza di base dell'algebra lineare, dell'analisi matematica e della fisica generale
Il corso intende introdurre lo studente alla formalizzazione rigorosa della fisica generale, prestando particolare attenzione ai corpi rigidi, alla statica ed alla formulazione analitica della meccanica.
Fornire allo studenti i metodi matematici consoni per lo studio approfondito e rigoroso della Meccanica, con somma attenzione al suo telaio riduzionista
Lezioni frontali
L'esame si articola in una prova scritta e in una prova orale. La prova scritta si compone di due parti: la prima contiene domande a risposta multipla; la seconda, un esercizio di meccanica.
Per il superamento della prova scritta è necessario avere la sufficienza su entrambi le parti.
La prova orale è facoltativa per coloro che abbiano superato la prova scritta con un voto superiore a 21/30 e inferiore a 27/30. E’ invece obbligatoria in tutti gli altri casi.Il mancato superamento della prova orale comporta l'annullamento della rispettiva prova scritta.
Ricevimento Studenti: previa prenotazione via e-mail, nell'ufficio 455 del Dipartimento di Matematica e Fisica "E. De Giorgi"
Introduzione alla meccanica razionale
cinematica del punto materiale e di sistemi di punti materiali
atto di moto rigido, formule di Poisson, CIR e suo impiego
classificazione dei vincoli, cinematica del corpo rigido
principi della meccanica del punto materiale e di sistemi di punti materiali
equazioni cardinali della meccanica
energie, lavori e teoremi di conservazione
baricentro e momento di inerzia
quantità di moto e momento angolar per il corpo rigido
statica e dinamica dei corpi rigidi
principio dei lavori virtuali
formulazione Lagrangiana della meccanica
integrali primi e simmetrie di Noether
dalle equazion di Lagrange a quelle di Hamilton
stabilità delle perturbazioni ed analisi qualitativa dei moti
1. Meccanica Razionale. Biscari, P., Ruggeri, T., Saccomandi, G., Vianello, M. Springer (2016)
2. Appunti di Meccanica Razionale. Turzi S. (scaricabile dal sito del docente)
MECCANICA RAZIONALE (MAT/07)
METODI MATEMATICI PER LA BIOLOGIA II
Corso di laurea SCIENZE BIOLOGICHE
Settore Scientifico Disciplinare MAT/06
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Per immatricolati nel 2020/2021
Anno accademico di erogazione 2020/2021
Anno di corso 1
Semestre Secondo Semestre (dal 08/03/2021 al 11/06/2021)
Lingua ITALIANO
Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)
Nessuno
Rudimenti di teoria della probabilità ("problemi diretti", prima parte), rudimenti di inferenza statistica ("problemi inversi", seconda parte) ed applicazioni di modelli matematici semplici a problemi biologici (terza parte).
Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte). Il corso si chiude (terza parte) mostrando allo studente come usare semplici modelli matematici per descrivere quantitativamente semplici fenomeni biologici.
Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)
L'esame consta nel superamento di una prova orale (gemellata con il modulo "Metodi Matematici per la Biologia 1" gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale
In concomitanza degli appelli del primo modulo: il corso è unico, è diviso in due moduli (il primo impartito dalla Professoressa Mangino, il secondo da Adriano)
Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.
-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Inferenza statistica: generalità degli stimatori
-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA)
-Comunicazione lungo una linea rumorosa (link youtube https://www.youtube.com/watch?v=rzg_CavQI_M&ab_channel=MITOpenCourseWare )
-il Teorema di Shannon: la definizione di entropia come misura di informazione ed il principio di massima entropia in teoria dell'informazione
-Dinamica di popolazione, modelli di Malthus e logistici generalizzati, modello preda-predatore di Lotka-Volterra.
M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.
METODI MATEMATICI PER LA BIOLOGIA II (MAT/06)
Metodi matematici per l'intelligenza artificiale
Corso di laurea MATEMATICA
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea Magistrale
Crediti 9.0
Ripartizione oraria Ore totali di attività frontale: 63.0
Per immatricolati nel 2020/2021
Anno accademico di erogazione 2020/2021
Anno di corso 1
Semestre Secondo Semestre (dal 22/02/2021 al 28/05/2021)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
Laurea Triennale in Matematica o Fisica
il corso offre una prospettiva storica sul ruolo della matematica nella modellizazione della processazione d'informazione emergente in reti di neuroni (biologici o artificiali) in interazione, partendo dai primi modelli per l'emissione di un segnale elettrico dal singolo neurone per giungere alle moderne architetture del Deep Learning.
Il corso è diviso in tre sezioni principali:
1) La prima sezione serve ad assicurarci di condividere una conoscenza scientifica di base (pre-requisito ovviamente necessario per muovere insieme i primi passi verso un'intelaiatura matematica formale dell'Intelligenza Artificiale). In esterma sintesi si suppliranno allo studente rudimenti di Meccanica Statistica e di Processi Stocastici rivisitando insieme alcuni argomenti fondamentali (adattati per questo corso) di pertinenza canonica di queste due discipline.
2) La seconda sezione introduce invece modelli matematici di sistemi complessi (i “vetri di spin”), fondamentali per una successiva analisi matematica del funzionamento delle reti neurali, e sviluppa gli opportuni metodi matematici necessari alla loro descrizione ed alla comprensione della loro fenomenologia (i.e. la rottura spontanea di simmetria di replica di Parisi): si suppliranno allo studente tanto metodi euristici, di uso canonico in approcci di Fis02, e.g. “replica trick”, “message passage”, etc., quanto metodi rigorosi, di largo impiego in Mat07 & Mat06, e.g. “stochastic stability”, “cavity fields”, etc...
3) L'ultima e preponderante sezione è invece completamente dedita alle reti neurali: dopo una succinta descrizione (sempre in termini matematici) dei meccanismi cardine inerenti il neurone e la propagazione d'informazione tra neuroni (alla stregua della loro implementazione elettronica), si costruiranno “reti di neuroni” e se ne studieranno le proprietà emergenti (cioè non immediatamente deducibili guardando al comportamento del singolo neurone), persistendo in una prospettiva di meccanica statistica. Nello specifico, proveremo a vedere come queste reti siano in grado di apprendere ed astrarre guardando esempi suppliti dal mondo esterno e come, successivamente, queste usino quanto appreso per rispondere opportunamente, qualora stimolate, al mondo esterno. Capiremo inoltre come queste a volte possano sbagliare, e perché.
Il corso si chiuderà lambendo la frontiera della ricerca attuale nel campo dell'Intelligenza Artificiale ed, idealmente ed auspicabilmente, alla fine del corso lo studente dovrebbe essere in grado di poter proseguire autonomamente nell'approfondimento di tale disciplina. In particolare lo studente dovrebbe poter essere in grado, interagendo in team un domani, di essere complementare alle figure del computer-scientist e dell'ingegnere dell'informazione, interessandosi delle stesse tematiche di questi, ma offrendo una diversa prospettiva,
intrinsecamente più astratta e sintetica (a dire cioè dove la miriade di ricette di algoritmica che ogni giorno produciamo trovi una collocazione naturale) e per questo sempre più indispensabile nei gruppi di ricerca in AI.
Lo scopo del corso è condividere con lo studente i concetti salienti e, parimenti, fornire allo studente gli strumenti cardine, affinché questi possa continuare autonomamente la sua crescita culturale nell'ambito dell'Intelligenza Artificiale da una prospettiva prettamente formale: il presente corso non vuole essere un corso applicato di
“Machine Learning” (corso fruibile nelle Facoltà di Ingegneria da decadi) mentre brama essere un corso teorico di “Intelligenza Artificiale”.
L'ambizione ultima è riuscire a porsi domande sui principi primi di funzionamento dell'AI (traendo ispirazione da analogie con la processazione d'informazione in reti biologiche) e, ove possibile rispondere, capire come impostare il problema nel complesso all'interno di una cornice matematica consona.
Lezioni frontali
L'esame consta nel superamento di una prova orale
Da concordare con il docente (assolutamente malleabile su questo punto)
1. Richiami di Meccanica, Probabilità, Meccanica Statistica e Processi Stocastici
-Legge dei Grandi Numeri e Teoremi del Limite Centrale.
-Problema del Time-Reversal con esempi di PDE di interesse in Fisica (e.g. D'Alambert & Fourier).
-Il modello di Ehrenfest: analisi sia della statica che della dinamica, studio dell'entropia.
-L'approccio di Gibbs ed il metodo della “distribuzione piu' probabile”.
-L'approccio di Jaynes: una prospettiva del tutto inferenziale.
-Equivalenza (e non) tra le entropie di Gibbs e Shannon.
-La temperatura come rumore veloce: dal random walk all'equazione del calore.
-La master equation: Hamiltoniana come funzione di Lyapunov ed il Bilancio Dettagliato.
-L'inverse-problem nel caso più semplice (un sola specie di Curie-Weiss & via log-likelihood).
2. Fenomeni critici e transizioni di fase: verso i sistemi complessi
2.1: Metodi matematici per ricavare i diagrammi di fase
-Modello di Ising: approssimazione di campo medio, transizioni di fase e rotture di simmetrie.
-Proprietà degli stati puri: fattorizzazione delle funzioni di correlazione e clustering.
-Metodo del “punto di sella”, equazioni Dobrushin-Ruelle-Landford e disuguaglianze convesse.
-Metodo del campo di cavità ed analisi di Fourier.
2.2: Introduzione ai sistemi complessi
-misure quenched ed annealed, overlap e repliche.
-Ageing, rottura del time-translational-invariance e fenomenologia dei trap models.
-Spettro di una catena di Markov semplice e frustrata: rilassamento dei modi normali.
-Il modello di Sherrington-Kirkpatrick: analisi con “replica trick”, soluzione RS e crisi entropica.
-Analisi mediante “replica trick”: rottura di simmetria di replica di Parisi.
-Analisi mediante PDE: Hamilton-Jacobi, Burgers, Riemann-Hopf ed il trasporto ottimale.
-Analisi mediante “stochastic stability & cavity fields”: approccio à la Guerra.
3. Elementi di Intelligenza Artificiale: le reti neurali
-Il quadro storico nel quale è nata l'AI: tanti contributi da diverse discipline.
-La “cable theory” di Hodking-Huxley ed il neurone “integrate & fire” di Stein.
-Il neurone di McCulloch & Pitts: la meccanica statistica come logica rumorosa.
-Il riflesso condizionato di Pavlov mediante dinamica stocastica à la Glauber.
3.1: Dinamica neurale
-La memoria associativa e le reti neuronali: la proposta di Hebb.
-Il modello di Mattis, trasformazioni di gauge locali e storage di un bit di informazione.
-Il modello di Hopfield a basso carico con il metodo della log-constrained entropy.
-Il modello di Hopfield ad alto carico con il replica trick: Teoria di Amit-Gutfreund-Sompolinsky
-Il Perceptrone di Rosenblatt e la critica di Minsky&Papert.
-L'ottimizzatore NP di Hopfield-Tank (applicazione al commesso viaggiatore)
3.2: Dinamica sinaptica
-Apprendimento delle Boltzmann machines: scenario studente-allievo (supervised learning).
-Apprendimento delle Boltzmann machines: scenario non supervisionato (contrastive divergence).
-Equivalenza tra retrieval in reti di Hopfield e learning in macchine di Boltzmann.
-Apprendimento in reti dense: l'emergere del trade-off tra risoluzione e storage.
-Reti neurali che dormono e sognano: come distruggere gli stati di spin-glass
-Reti neurali gerarchiche e multi-tasking: robustezza metodologica alla volta della Biologia.
[Amit] D.J. Amit, Modeling Brain Functions, Cambridge Press (1985).
[Barra] A. Barra, Dispense specifiche per questo corso (2019).
[Coolen] A.C.C. Coolen, R . Kuhn, P. Sollich, Theory of Neural Information Processing Systems, Oxford Press (2005).
[MacKay] D.J.C. MacKay, Information theory, Inference and Learning Algorithms, Cambridge Press (2018).
Metodi matematici per l'intelligenza artificiale (MAT/07)
MATEMATICA
Corso di laurea VITICOLTURA ED ENOLOGIA
Settore Scientifico Disciplinare MAT/09
Tipo corso di studio Laurea
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 48.0
Per immatricolati nel 2019/2020
Anno accademico di erogazione 2019/2020
Anno di corso 1
Semestre Primo Semestre (dal 30/09/2019 al 17/01/2020)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
Sede Lecce
Nessuno
Elementi di analisi: dal concetto di limite a quello di derivata ed integrale, volti allo studio di funzione e alla soluzione di elementari equazioni differenziali.
Elementi di probabilità distribuzioni salienti, leggi dei grandi numeri e teoremi del limite centrale (con attenzione alle loro violazioni per distribuzioni a potenza)
Elementi di inferenza statistica: principalmente principio di massima verosimiglianza ed inferenza Bayesiana
Fornire allo studente gli strumenti matematici indispensabili per poter proseguire nel percorso di studi. In particolare, da un lato, sviluppando la capacità di fare modelli (quindi volgendo attenzione ad elementi di analisi matematica ed algebra lineare), dall'altro intelaiando in esso le competenze per poter raccogliere ed analizzare dati sul campo (quindi focalizzandoci su rudimenti di probabilità ed inferenza statistica).
Lezioni frontali alla lavagna
L'esame consta almeno nel superamento della prova scritta. Lo studente può poi mettere in discussione il voto del suo scritto con un ulteriore approfondimento orale (che, per quanto non obbligatorio, è comunque auspicato dal docente.
-Numeri, misure, errori e loro propagazione.
-Insiemi e loro proprietà.
-Introduzione elementare alla probabilità e definizioni salienti.
-Elementi di Probabilità discreta, lancio di dadi e monete (e relativa combinatoria)
-Elementi di Probabilità discreta: quantificatori e distribuzioni (e.g. Bernoulli)
-Teorema di Bayes e sue applicazioni
-Elementi di Analisi Matematica necessari per lo studio di funzione (e.g. limiti e derivate)
-Elementi di Analisi Matematica necessari per la risoluzione di ODE (e.g. integrali elementari)
-Probabilità Continua: densità di probabilità, funzione di ripartizione, etc.
-Teorema del Limite Centrale e Legge dei Grandi Numeri: la distribuzione di Gauss (ed i suoi limiti)
-Elementi di statistica: momenti campionari e massima verosimiglianza in casi elementari.
-Il metodo dei minimi quadrati e sue generalizzazioni.
Mario Abate, Matematica & Statistica (McGraw Hill Publisher)
MATEMATICA (MAT/09)
MECCANICA RAZIONALE
Corso di laurea INGEGNERIA INDUSTRIALE
Settore Scientifico Disciplinare MAT/07
Tipo corso di studio Laurea
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 54.0
Per immatricolati nel 2018/2019
Anno accademico di erogazione 2019/2020
Anno di corso 2
Semestre Secondo Semestre (dal 02/03/2020 al 05/06/2020)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
Sede Lecce
è opportuna una conoscenza di base dell'algebra lineare, dell'analisi matematica e della fisica generale
Il corso intende introdurre lo studente alla formalizzazione rigorosa della fisica generale, prestando particolare attenzione ai corpi rigidi, alla statica ed alla formulazione analitica della meccanica.
Fornire allo studenti i metodi matematici consoni per lo studio approfondito e rigoroso della Meccanica, con somma attenzione al suo telaio riduzionista
Lezioni frontali
L'esame si articola in una prova scritta e in una prova orale. La prova scritta si compone di due parti: la prima contiene domande a risposta multipla; la seconda, un esercizio di meccanica.
Per il superamento della prova scritta è necessario avere la sufficienza su entrambi le parti.
La prova orale è facoltativa per coloro che abbiano superato la prova scritta con un voto superiore a 21/30 e inferiore a 27/30. E’ invece obbligatoria in tutti gli altri casi.Il mancato superamento della prova orale comporta l'annullamento della rispettiva prova scritta.
Ricevimento Studenti: previa prenotazione via e-mail, nell'ufficio 455 del Dipartimento di Matematica e Fisica "E. De Giorgi"
Introduzione alla meccanica razionale
cinematica del punto materiale e di sistemi di punti materiali
atto di moto rigido, formule di Poisson, CIR e suo impiego
classificazione dei vincoli, cinematica del corpo rigido
principi della meccanica del punto materiale e di sistemi di punti materiali
equazioni cardinali della meccanica
energie, lavori e teoremi di conservazione
baricentro e momento di inerzia
quantità di moto e momento angolar per il corpo rigido
statica e dinamica dei corpi rigidi
principio dei lavori virtuali
formulazione Lagrangiana della meccanica
integrali primi e simmetrie di Noether
dalle equazion di Lagrange a quelle di Hamilton
stabilità delle perturbazioni ed analisi qualitativa dei moti
1. Meccanica Razionale. Biscari, P., Ruggeri, T., Saccomandi, G., Vianello, M. Springer (2016)
2. Appunti di Meccanica Razionale. Turzi S. (scaricabile dal sito del docente)
MECCANICA RAZIONALE (MAT/07)
PROBABILITA' E STATISTICA
Corso di laurea SCIENZE BIOLOGICHE
Settore Scientifico Disciplinare MAT/06
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 34.0
Per immatricolati nel 2019/2020
Anno accademico di erogazione 2019/2020
Anno di corso 1
Semestre Primo Semestre (dal 07/10/2019 al 24/01/2020)
Lingua ITALIANO
Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)
Nessuno
Rudimenti di teoria della probabilità ("problemi diretti", prima parte) e rudimenti di inferenza statistica ("problemi inversi", seconda parte).
Il corso vuole fornire allo studente gli strumenti cardine per permettere allo stesso una rappresentazione del fenomeno sperimentale in termini probabilistici (prima parte) e, parimenti, dotarlo di tecniche di inferenza per poter opportunamente raccogliere i dati in un esperimento (seconda parte).
Lezioni frontali sia alla lavagna che con il proiettore (per le applet grafiche)
L'esame consta nel superamento di una prova orale (gemellata con il modulo di Matematica gestito dalla Professoressa Elisabetta Mangino) e di una succinta verifica orale
Mutuati dal modulo di Matematica
Ricevimento su appuntamento: mandare una e-mail al docente per coordinarsi, grazie.
-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Inferenza statistica: generalità degli stimatori
-Inferenza statistica: il principio di massima verosimiglianza
-Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA)
M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.
PROBABILITA' E STATISTICA (MAT/06)
PROBABILITA' E STATISTICA
Corso di laurea SCIENZE BIOLOGICHE
Settore Scientifico Disciplinare MAT/06
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 36.0
Per immatricolati nel 2018/2019
Anno accademico di erogazione 2018/2019
Anno di corso 1
Semestre Primo Semestre (dal 08/10/2018 al 25/01/2019)
Lingua ITALIANO
Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)
Nessuno
-Introduzione alla probabilità.
-Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg
-Probabilità Condizionata, Teorema di Bayes
-Calcolo Combinatorio, Distribuzione Binomiale, di Bernoulli e di Poisson
-Rappresentazione dei dati: diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza (campionarie)
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Test di ipotesi mediante pivot: test Z, T di Student, Chi-Quadro ed F (ANOVA)
-Metodo dei minimi quadrati e sue generalizzazioni
Fornire allo studente gli strumenti imprescindibili (di tipo probabilistico e stocastico ovviamente) del Metodo Scientifico per permetterli di analizzare razionalmente (e possibilmente in maniera quantitativa) le successive nozioni di Fisica, Chimica e Biologia che si troverà a dover apprendere durante il percorso di laurea. Parimenti, si brama dotarlo di una consona capacità di analisi e trattamento dati (biologici) in vista di un suo futuro impiego, tanto nel mondo della ricerca quanto in quello del lavoro.
L'esame è unico per il corso di Matematica Probabilità e Statistica (10 CFU = 6 Matematica + 4 Probabilità & Statistica).
Il docente di riferimento per il modulo di Matematica è il Prof. Mauro Spreafico.
L'esame consta nel superamento di una prova scritta, la quale si compone (tipicamente) di cinque esercizi, 3 inerenti il modulo di Matematica e 2 inerenti il modulo di Probabilità & Statistica) mediante i quali cui si valutano i risultati di apprendimento complessivamente acquisiti dallo studente.
La votazione finale, ricavata dalla media ponderata (2/5 Probabilità e Statistica vs 3/5 Matematica) delle due prove, è espressa in trentesimi, con eventuale lode. Nell'attribuzione del punteggio finale si terrà conto: del livello di conoscenze teoriche acquisite (50%); della capacità di applicare le conoscenze acquisite (30%); dell’autonomia di giudizio (10%); delle abilità comunicative (10%).
Gli estremi temporali inerentemente le prove d'esame sono fruibili a questo indirizzo.
CORSO DI "MATEMATICA, PROBABILITA' & STATISTICA" PER BIOLOGI (6+4 CFU, PRIMO SEMESTRE)
Docenti: Prof. M. Spreafico (per il modulo di Matematica) & Dr. A. Barra (per il modulo di Statistica)
Obiettivi del modulo di Probabilità&Statistica: Scopo del corso è introdurre lo studente al ragionamento statistico, cercando di farne comprendere l'importanza tanto teorica quanto pratica nella ricerca. Si brama inoltre fornire lo stesso con i primi strumenti, tanto teorici quanto pratici, per l'elaborazione statistica dei dati.
Programma (di massima) del corso:
Parte di Matematica curata dal Prof. Mauro Spreafico
-Numeri naturali, interi, razionali, reali. Massimo, minimo, estremo superiore e inferiore.
-Elementi di geometria analitica: equazioni della retta, della circonferenza, dell’ellisse della parabola e dell’iperbole.
-Cenni alle serie numeriche: la serie geometrica e la serie armonica.
-Il concetto di funzione. Funzioni notevoli: potenza, esponenziale, logaritmo, le funzioni circolari (o goniometriche).
-Successioni: limiti, loro proprietà, operazioni sui limiti, limiti notevoli, successioni monotone.
-Il numero e. Limiti di funzioni. Funzioni continue e loro proprietà. Sistemi lineari.
-Derivate: definizione e proprietà. Operazioni sulle derivate. Derivate della funzione composta, derivata della funzione inversa.
-Derivate della funzioni elementari. Massimi e minimi relativi. Teoremi di Rolle e di Lagrange. Funzioni crescenti e decrescenti.
-Funzioni convesse. Teorema di de l’Hôpital. Studio di funzioni. Formula e serie di Taylor.
-Integrale definito e le sue proprietà. Teorema della media. Teorema fondamentale del Calcolo integrale. Integrale indefinito.
-Metodi d’integrazione: integrazione per parti, integrazione per sostituzione. Calcolo di aree e di volumi.
-Equazioni differenziali del primo e del secondo ordine. Equazioni lineari. Equazioni a variabili separate. Equazioni di Bernoulli.
Parte di Statistica curata dal Dr. Adriano Barra
-Introduzione alla probabilità. Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg, Probabilità Condizionata, Teorema di Bayes
-Test diagnostici, Calcolo Combinatorio, Distribuzione Binomiale e di Poisson
-Rappresentazione dei dati, diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza, Minimi Quadrati
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
- Test di ipotesi: test del Chi^2, test T di Student, test F (ANOVA)
M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.
PROBABILITA' E STATISTICA (MAT/06)
STATISTICA MATEMATICA
Corso di laurea MATEMATICA
Settore Scientifico Disciplinare MAT/06
Tipo corso di studio Laurea
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 42.0
Per immatricolati nel 2016/2017
Anno accademico di erogazione 2018/2019
Anno di corso 3
Semestre Secondo Semestre (dal 25/02/2019 al 31/05/2019)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
E' certamente auspicabile aver seguito con profitto il corso di Probabilità, tenuto dal Professor Carlo Sempi.
Inoltre, può risultare appagante aver seguito anche il modulo di Termodinamica (impartito all'interno del corso di Fisica III), tenuto dal Professor Gabriele Ingrosso.
-Prontuario di Probabilità (Definizioni cardine, distribuzioni classiche, Bayes, TLC e la distribuzione di Gauss)
-Prontuario di Termodinamica (Primo e Secondo Principio, il telaio riduzionista e la distribuzione di Gauss)
-Un problema pratico: equivalenza tra entripie di Shannon & Boltzmann. Analisi del modello di Ehrenfest
-Elementi di statistica multivariata
-Un problema pratico: il metodo dei minimi quadrati e le sue generalizzazioni.
-Speranza e varianza di combinazioni di variabili aleatorie, coefficiente di Pearson.
-La distribuzione del Chi-quadro.
-Modelli statistici: Modelli esponenziali e non.
-Teoria degli Stimatori.
-Il metodo dei momenti.
-Principio di Massima Verosimiglianza
-Verosimiglianze per tutte le distribuzioni classiche e verosimiglianza profilo
-Misure di Informazione: Shannon vs Fisher
-Disuguaglianza di Fréchet-Cramer-Rao
-Rapporto di verosimiglianza come test d'ipotesi
-Statistiche sufficienti e statistiche sufficienti minimali
-Criterio di fattorizzazione di Neymann-Fisher
-Stimatori ottimi, identità di Wald e Teorema di Rao-Blackwell
-Intervalli di fiducia: il metodo del pivot e la genesi dei test d'ipotesi
-test Z, test T, test Chi^2, test F (con utilizzo delle tavole)
-Impostazione Bayesiana dell'inferenza
-Inferenza come forma di apprendimento: gli esempi di Erhenfest e dell'amico baro
-Stimatori bayesiani e test bayesiani per tutte le distribuzioni classiche
-Il Principio di Boltzmann dalla prospettiva di Jaynes nel linguaggio di Shannon
-Impostazione e soluzione asintotica del problema diretto (mediante Massima Entropia) per variabili booleane con prior, correlate o entrambe
-Impostazione e soluzione asintotica del problema inverso (mediante Massima Verosimiglianza) per variabili booleane con prior, correlate o entrambe
Scopo principe del corso è introdurre lo studente al ragionamento statistico, cercando di farne comprendere l'importanza tanto teorica quanto pratica, in particolare nella ricerca scientifica. Si brama inoltre fornire lo stesso con i primi strumenti, tanto teorici quanto pratici, per l'elaborazione statistica dei dati.
Nello specifico:
Conoscenze e comprensione: Alla fine del corso, lo studente dovrebbe possedere una solida preparazione all'analisi statistica dei dati con un ampio spettro di conoscenze di base di tipo analitico.
Capacità di applicare conoscenze e comprensione: Parimenti, lo studente dovrebbe essere capace di implementare i principali metodi statistici in ambito scientifico (allo studente sarà offerta una pletora di esempi -presi da diverse branche della Scienza moderna- mediante i quali prendere dimistichezza con l'applicazione dei metodi statistici.) Inoltre, questi dovrà essere capace di leggere e comprendere, in modo autonomo, testi di base di Statitica, tanto teorica quanto applicata.
Autonomia di giudizio: A corso impartito, lo studente dovrebbe essere in grado di affrontare un problema da una chiara prospettiva metodologica scientifica: saprà in primis formulare il problema in esame all'interno di un telaio inferenziale robusto, consono e ragionevole (i.e. “razionalmente affrontabile”). Una volta “tradotta” la complessità del fenomeno reale da descrivere in termini formali -”statistici” nello specifico- in modelli matematici egli saprà parimenti risolverli ed interpretare, nel contesto di pertinenza, i risultati ottenuti mediante l'analisi statistica degli stessi.
Abilità comunicative. La presentazione degli argomenti sarà svolta in modo da consentire allo studente di fruire di una padronanza lessicale consona al dialogo scientifico tecnico (quindi essenzialità, stringatezza, chiarezza e rigore esplicativo), necessaria per disquisire nella loro opportuna cornice problemi concreti, idee e soluzioni per gli stessi.
Capacità di apprendimento. Saranno indicati argomenti da approfondire, strettamente correlati con l’insegnamento (ma presi da contesti applicati il più possibile in ragione delle passioni proprie dello studente, al fine di stimolarne la capacità di apprendimento autonomo).
Lezioni frontali alla lavagna
L'esame consta in una prova orale.
-ripasso di Teoria della Probabiltà
-elementi di Statistica Multivariata
-distribuzioni marginali e condizionate
-metodo dei minimi quadrati
-propagazione dell'errore
-chi^2: concetti, idee, metodi, errori Gaussiani
-media, moda, mediana e varianza campionaria
-teoria degli stimatori: concetti cardine
-il metodo dei momenti (o dell'analogia)
-inferenza mediante principio di massima verosimiglianza (PMV): teoria
-PMV per Bernoulli
-PMV per Poisson
-MPV per Gauss
-Funzione di score, Informazione di Fisher ed Entropia di Shannon
-stimatore efficiente: generalità
-teorema di Cramer-Rao
-identità di Waald
-teorema di Rao-Blackwell
-l'approccio di Kullback-Leibler
-normalità asintotica degli stimatori
-statistiche sufficienti e minimali
-criterio di Neyman-Fisher ed analogie con la meccanica statistica nelle fattorizzazioni
-tecniche di stima per intervallo
-il metodo del pivot
-statistica Z
-statistica T
-intervalli di confidenza per Bernoulli, Poisson e Gauss
-confronto tra due gruppi e rapporto di (log)-verosimiglianza monotono
-elementi di inferenza à la Bayes
-il modello di Ehrenfest
-la statistica Bayesiana come modello di apprendimento
-effetto di una prior rilevante e caso di prior uniforme e log-uniforme)
-inferenza simultanea sui primi momenti di una distribuzione mediante marginalizzazione Bayesiana
-paradossi apparenti dell'inferenza Bayesiana: sulla distribuzione a priori
-il principio di massima entropia (PME) di Jaynes
-PME per variabili booleane indipendenti: calcolo esplicito della funzione costo e dell'entropia di Shannon
-PME per variabili booleane correlate: calcolo esplicito della funzione costo e dell'entropia di Shannon
-equivalenza tra le entropie di Shannon e Boltzmann-Gibbs
Gianfausto Salvadori, dispense per il corso di Statistica Matematica (fruibili presso il Dipartimento di Matematica e Fisica dell'Università del Salento)
Alessandra Faggionato, dispense per il corso di Statistica Matematica (fruibili presso il Dipartimento di Matematica di Sapienza Università di Roma)
Giorgio Parisi, Enzo Marinari, Trattatello di Probabilità, Dispense pubbliche disponibili in rete (2003)
Luigi Pace, Alessandra Salvan, Introduzione alla statistica II: Inferenza, verosimiglianza, modelli (Cedam, 2011)
STATISTICA MATEMATICA (MAT/06)
PROBABILITA' E STATISTICA
Corso di laurea SCIENZE BIOLOGICHE
Settore Scientifico Disciplinare MAT/06
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 0.0
Per immatricolati nel 2017/2018
Anno accademico di erogazione 2017/2018
Anno di corso 1
Semestre Primo Semestre (dal 02/10/2017 al 19/01/2018)
Lingua ITALIANO
Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)
Nessuno
-Introduzione alla probabilità.
-Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg
-Probabilità Condizionata, Teorema di Bayes
-Calcolo Combinatorio, Distribuzione Binomiale, di Bernoulli e di Poisson
-Rappresentazione dei dati: diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza (campionarie)
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Test di ipotesi mediante pivot: test Z, T di Student, Chi-Quadro ed F (ANOVA)
-Metodo dei minimi quadrati e sue generalizzazioni
Fornire allo studente gli strumenti imprescindibili (di tipo probabilistico e stocastico ovviamente) del Metodo Scientifico per permetterli di analizzare razionalmente (e possibilmente in maniera quantitativa) le successive nozioni di Fisica, Chimica e Biologia che si troverà a dover apprendere durante il percorso di laurea. Parimenti, si brama dotarlo di una consona capacità di analisi e trattamento dati (biologici) in vista di un suo futuro impiego, tanto nel mondo della ricerca quanto in quello del lavoro.
L'esame è unico per il corso di Matematica Probabilità e Statistica (10 CFU = 6 Matematica + 4 Probabilità & Statistica).
Il docente di riferimento per il modulo di Matematica è il Prof. Mauro Spreafico.
L'esame consta nel superamento di una prova scritta, la quale si compone (tipicamente) di cinque esercizi, 3 inerenti il modulo di Matematica e 2 inerenti il modulo di Probabilità & Statistica).
M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.
PROBABILITA' E STATISTICA (MAT/06)
STATISTICA MATEMATICA
Corso di laurea MATEMATICA
Settore Scientifico Disciplinare MAT/06
Tipo corso di studio Laurea
Crediti 6.0
Ripartizione oraria Ore totali di attività frontale: 42.0
Per immatricolati nel 2015/2016
Anno accademico di erogazione 2017/2018
Anno di corso 3
Semestre Secondo Semestre (dal 26/02/2018 al 25/05/2018)
Lingua ITALIANO
Percorso PERCORSO COMUNE (999)
Sede Lecce
E' certamente auspicabile aver seguito con profitto il corso di Probabilità, tenuto dal Professor Carlo Sempi.
Inoltre, può risultare appagante aver seguito anche il modulo di Termodinamica (impartito all'interno del corso di Fisica III), tenuto dal Professor Gabriele Ingrosso.
-Prontuario di Probabilità (Definizioni cardine, distribuzioni classiche, Bayes, TLC e la distribuzione di Gauss)
-Prontuario di Termodinamica (Primo e Secondo Principio, il telaio riduzionista e la distribuzione di Gauss)
-Un problema pratico: equivalenza tra entripie di Shannon & Boltzmann. Analisi del modello di Ehrenfest
-Elementi di statistica multivariata
-Un problema pratico: il metodo dei minimi quadrati e le sue generalizzazioni.
-Speranza e varianza di combinazioni di variabili aleatorie, coefficiente di Pearson.
-La distribuzione del Chi-quadro.
-Modelli statistici: Modelli esponenziali e non.
-Teoria degli Stimatori.
-Il metodo dei momenti.
-Principio di Massima Verosimiglianza
-Verosimiglianze per tutte le distribuzioni classiche e verosimiglianza profilo
-Misure di Informazione: Shannon vs Fisher
-Disuguaglianza di Fréchet-Cramer-Rao
-Rapporto di verosimiglianza come test d'ipotesi
-Statistiche sufficienti e statistiche sufficienti minimali
-Criterio di fattorizzazione di Neymann-Fisher
-Stimatori ottimi, identità di Wald e Teorema di Rao-Blackwell
-Intervalli di fiducia: il metodo del pivot e la genesi dei test d'ipotesi
-test Z, test T, test Chi^2, test F (con utilizzo delle tavole)
-Impostazione Bayesiana dell'inferenza
-Inferenza come forma di apprendimento: gli esempi di Erhenfest e dell'amico baro
-Stimatori bayesiani e test bayesiani per tutte le distribuzioni classiche
-Il Principio di Boltzmann dalla prospettiva di Jaynes nel linguaggio di Shannon
-Impostazione e soluzione asintotica del problema diretto (mediante Massima Entropia) per variabili booleane con prior, correlate o entrambe
-Impostazione e soluzione asintotica del problema inverso (mediante Massima Verosimiglianza) per variabili booleane con prior, correlate o entrambe
Scopo principe del corso è introdurre lo studente al ragionamento statistico, cercando di farne comprendere l'importanza tanto teorica quanto pratica, in particolare nella ricerca scientifica. Si brama inoltre fornire lo stesso con i primi strumenti, tanto teorici quanto pratici, per l'elaborazione statistica dei dati.
L'esame consta in una prova orale.
-ripasso di Teoria della Probabiltà
-elementi di Statistica Multivariata
-distribuzioni marginali e condizionate
-metodo dei minimi quadrati
-propagazione dell'errore
-chi^2: concetti, idee, metodi, errori Gaussiani
-media, moda, mediana e varianza campionaria
-teoria degli stimatori: concetti cardine
-il metodo dei momenti (o dell'analogia)
-inferenza mediante principio di massima verosimiglianza (PMV): teoria
-PMV per Bernoulli
-PMV per Poisson
-MPV per Gauss
-Funzione di score, Informazione di Fisher ed Entropia di Shannon
-stimatore efficiente: generalità
-teorema di Cramer-Rao
-identità di Waald
-teorema di Rao-Blackwell
-l'approccio di Kullback-Leibler
-normalità asintotica degli stimatori
-statistiche sufficienti e minimali
-criterio di Neyman-Fisher ed analogie con la meccanica statistica nelle fattorizzazioni
-tecniche di stima per intervallo
-il metodo del pivot
-statistica Z
-statistica T
-intervalli di confidenza per Bernoulli, Poisson e Gauss
-confronto tra due gruppi e rapporto di (log)-verosimiglianza monotono
-elementi di inferenza à la Bayes
-il modello di Ehrenfest
-la statistica Bayesiana come modello di apprendimento
-effetto di una prior rilevante e caso di prior uniforme e log-uniforme)
-inferenza simultanea sui primi momenti di una distribuzione mediante marginalizzazione Bayesiana
-paradossi apparenti dell'inferenza Bayesiana: sulla distribuzione a priori
-il principio di massima entropia (PME) di Jaynes
-PME per variabili booleane indipendenti: calcolo esplicito della funzione costo e dell'entropia di Shannon
-PME per variabili booleane correlate: calcolo esplicito della funzione costo e dell'entropia di Shannon
-equivalenza tra le entropie di Shannon e Boltzmann-Gibbs
Gianfausto Salvadori, dispense per il corso di Statistica Matematica (fruibili presso il Dipartimento di Matematica e Fisica dell'Università del Salento)
Alessandra Faggionato, dispense per il corso di Statistica Matematica (fruibili presso il Dipartimento di Matematica di Sapienza Università di Roma)
Giorgio Parisi, Enzo Marinari, Trattatello di Probabilità, Dispense pubbliche disponibili in rete (2003)
Luigi Pace, Alessandra Salvan, Introduzione alla statistica II: Inferenza, verosimiglianza, modelli (Cedam, 2011)
STATISTICA MATEMATICA (MAT/06)
PROBABILITA' E STATISTICA
Corso di laurea SCIENZE BIOLOGICHE
Settore Scientifico Disciplinare MAT/06
Tipo corso di studio Laurea
Crediti 4.0
Ripartizione oraria Ore totali di attività frontale: 36.0
Per immatricolati nel 2016/2017
Anno accademico di erogazione 2016/2017
Anno di corso 1
Semestre Secondo Semestre (dal 13/03/2017 al 09/06/2017)
Lingua
Percorso PERCORSO GENERICO/COMUNE (PDS0-2008)
Nessuno
-Introduzione alla probabilità.
-Probabilità Discreta. Assiomi della Probabilità
-Legge di Hardy-Weinberg
-Probabilità Condizionata, Teorema di Bayes
-Calcolo Combinatorio, Distribuzione Binomiale, di Bernoulli e di Poisson
-Rappresentazione dei dati: diagrammi Cartesiani, istogrammi
-Media, Moda, Mediana, Varianza (campionarie)
-Probabilità continua: concetti fondamentali
-Distribuzione uniforme, distribuzione esponenziale e distribuzione Gaussiana
-Legge dei Grandi Numeri & Teorema del Limite Centrale
-Test di ipotesi mediante pivot: test Z, T di Student, Chi-Quadro ed F (ANOVA)
-Metodo dei minimi quadrati e sue generalizzazioni
Fornire allo studente gli strumenti imprescindibili (di tipo probabilistico e stocastico ovviamente) del Metodo Scientifico per permetterli di analizzare razionalmente (e possibilmente in maniera quantitativa) le successive nozioni di Fisica, Chimica e Biologia che si troverà a dover apprendere durante il percorso di laurea. Parimenti, si brama dotarlo di una consona capacità di analisi e trattamento dati (biologici) in vista di un suo futuro impiego, tanto nel mondo della ricerca quanto in quello del lavoro.
L'esame è unico per il corso di Matematica Probabilità e Statistica (10 CFU = 6 Matematica + 4 Probabilità & Statistica).
Il docente di riferimento per il modulo di Matematica è il Prof. Mauro Spreafico.
L'esame consta nel superamento di una prova scritta, la quale si compone (tipicamente) di cinque esercizi, 3 inerenti il modulo di Matematica e 2 inerenti il modulo di Probabilità & Statistica).
M. Abate, Matematica e Statistica. Le basi per le scienze della vita. McGraw-Hill, Milano.
PROBABILITA' E STATISTICA (MAT/06)
Tesi
A.A. 2016/2017: Sarah Perrone, Tesi triennale in Fisica.
Equivalenze strutturali tra relazioni di input-output in biochimica e in meccanica statistica.
A.A. 2017/2018: Giacomo Lo Russo, Tesi triennale in Biologia.
Biocibernetica: elementi di processazione di informazione in sistemi a carbonio e silicio.
A.A. 2017/2018: Matteo Notarnicola, Tesi triennale in Matematica.
Il limite termodinamico dell'energia libera nel modello di Hopfield.
A.A. 2017/2018: Francesco Alemanno, Tesi magistrale in Fisica.
Intelligenza Artificiale nella fase R.E.M.
A.A. 2017/2018: Giulio Colazzo, Tesi magistrale in Fisica.
Il principio di massima entropia per l'inferenza statistica di concentrazioni di chemochine su piastra LabOnChip
A.A. 2018/2019: Martino Centonze, Tesi magistrale in Fisica.
Statistical mechanics of the Sejnowski neural network.
A.A. 2018/2019: Simona Tarantino, Tesi triennale in Fisica.
Meccanica statistica delle reti neurali associative "multitasking".
A.A. 2018/2019: Alessandro Villani, Tesi trennale in Matematica.
Metodi matematici di impiego in immunologia teorica.
A.A 2018/2019: Miriam Aquaro, Tesi triennale in Fisica.
Equivalenze formali tra principi variazionali della meccanica analitica e della meccanica statistica.
A.A. 2019/2020: Linda Albanese, Tesi magistrale in Matematica.
Replica symmetry breaking in neural networks: rigorous results.
A.A. 2019/2020: Angela Nigro, Tesi magistrale in Matematica.
Metodi stocastici per l'epidemiologia: l'impiego delle catene di Markov su modelli SIR generalizzati.
A.A. 2019/2020: Chiara Cannazza, Tesi triennale in Matematica.
Elementi di robotica ed automazione: il caso dell'oscillatore instabile.
A.A. 2019/2020: Mino Graziano, Tesi triennale in Matematica.
Il perceptrone di Rosenblatt: dalle critiche di Minsky&Paperts la necessità di una rete neurale.
A.A. 2020/2021: Erica Antermide, Tesi magistrale in Matematica.
Approcci diretti ed inversi al quorum sensing.
A.A. 2020/2021: Matteo Lotriglia, Tesi magistrale in Fisica.
La rotura di simmetria di replica e la linea di Nishimori.
A.A. 2020/2021: Miriam Aquaro, Tesi magistrale in Fisica.
Neural Networks cabable to learn by experience and optimize by dreaming
A.A. 2020/2021: Daniele Lotito, Tesi magistrale in Fisica.
Il principio di massima entropia con ritardo.
A.A. 2020/2021: Roberta DeMitri, Tesi triennale in Matematica.
Il simulated annealing per il problema del commesso viaggiatore.
Pubblicazioni
tutte le mie pubblicazioni scientifiche sono fruibili a questo indirizzo.
Grazie per l'attenzione.
Temi di ricerca
I miei interessi di ricerca sono (maldestramente) riassunti in questa pagina ed essenzialmente constano nell'applicazione della meccanica statistica dei sistemi complessi a problemi di Intelligenza Artificiale e Biologia.