Internazionalizzazione della Didattica | ARTIFICIAL VISION
Internazionalizzazione della Didattica ARTIFICIAL VISION
Indietro
Orari Lezioni
cod. 0622700045
ARTIFICIAL VISION
0622700045 | |
DIPARTIMENTO DI INGEGNERIA DELL'INFORMAZIONE ED ELETTRICA E MATEMATICA APPLICATA | |
CORSO DI LAUREA MAGISTRALE | |
INGEGNERIA INFORMATICA | |
2025/2026 |
OBBLIGATORIO | |
ANNO CORSO 2 | |
ANNO ORDINAMENTO 2022 | |
PRIMO SEMESTRE |
SSD | CFU | ORE | ATTIVITÀ | |
---|---|---|---|---|
ING-INF/05 | 5 | 40 | LEZIONE | |
ING-INF/05 | 2 | 16 | ESERCITAZIONE | |
ING-INF/05 | 2 | 16 | LABORATORIO |
Obiettivi | |
---|---|
L’INSEGNAMENTO MIRA ALL’ACQUISIZIONE DI COMPETENZE SULLE PRINCIPALI METODOLOGIE E TECNICHE IMPIEGATE PER REALIZZARE UN SISTEMA DI VISIONE ARTIFICIALE. CONOSCENZE E CAPACITÀ DI COMPRENSIONE ARCHITETTURA DI UN SISTEMA DI VISIONE ARTIFICIALE. ACQUISIZIONE DI IMMAGINI, OTTICHE E SENSORI. SISTEMI DI ACQUISIZIONE 2D E VISIONE BINOCULARE. CENNI ALLE TECNICHE DI LOW LEVEL PROCESSING (FILTRI LINEARI, OPERATORI MORFOLOGICI) E INTERMEDIATE LEVEL PROCESSING (SEGMENTAZIONE, EDGE DETECTION). APPROCCI TRADIZIONALI O BASATI SU DEEP LEARNING PER RICONOSCIMENTO DI OGGETTI E PER ANALISI DEI VOLTI. ANALISI DI VIDEO: TECNICHE DI INSEGUIMENTO DI SINGOLI OGGETTI DA TELECAMERA MOBILE, TECNICHE DI INSEGUIMENTO DI PIÙ OGGETTI DA TELECAMERA FISSA. CONOSCENZA E CAPACITÀ DI COMPRENSIONE APPLICATE DIMENSIONARE IL SISTEMA DI ACQUISIZIONE DELLE IMMAGINI E/O DEI VIDEO RISPETTO ALLE SPECIFICHE DEL PROBLEMA. PROGETTARE ED IMPLEMENTARE UN SISTEMA DI VISIONE ARTIFICIALE PER L’INTERPRETAZIONE DI IMMAGINI E/O VIDEO USANDO FUNZIONI DI LIBRERIA PER LA VISIONE ARTIFICIALE (OPENCV) INTEGRANDOLE CON TECNICHE DI MACHINE LEARNING. |
Prerequisiti | |
---|---|
PER IL PROFICUO RAGGIUNGIMENTO DEGLI OBIETTIVI PREFISSATI È RICHIESTA LA CONOSCENZA DEL LINGUAGGIO PYTHON E DEI PRINCIPALI FRAMEWORK PER IL MACHINE LEARNING ED IL DEEP LEARNING QUALI PYTORCH. |
Contenuti | |
---|---|
Unità didattica 1: Architettura dei sistemi di visione artificiale (ORE LEZIONE/ESERCITAZIONE/LABORATORIO 4/0/0) - 1 (2 ORE Lezione): Introduzione alla visione artificiale. - 2 (2 ORE Lezione): Architettura di un sistema di visione artificiale e fasi del processo di elaborazione CONOSCENZE E CAPACITÀ DI COMPRENSIONE: Architettura generale di un sistema di visione artificiale CONOSCENZE E CAPACITÀ DI COMPRENSIONE APPLICATE: Riconoscere i diversi componenti e stadi di elaborazione di un sistema di visione artificiale. Unità didattica 2: Acquisizione, rappresentazione e preprocessing delle immagini (ORE LEZIONE/ESERCITAZIONE/LABORATORIO 18/14/0) - 3 (4 ORE Lezione): Architettura di un sistema di acquisizione di immagini. Ottica: modelli pinhole e lente sottile. Concetti chiave: lunghezza focale, angolo di campo, profondità di campo, apertura, esposizione. - 4 (2 ORE Lezione): Tipi di sensori: visibile, infrarosso, termico. Elementi di imaging di profondità. Telecamere ad eventi o neuromorfiche. - 5 (2 ORE Lezione): Dimensionamento di un sistema di elaborazione delle immagini - 6 (6 ORE Esercitazione): Metodi e strumenti per la progettazione di un sistema di acquisizione di telecamere in uno scenario reale. Discussione di tre esempi. - 7 (2 ORE Esercitazione): Introduzione a OpenCV. Operazioni di base con le immagini: caricamento da/salvataggio su file, acquisizione e visualizzazione di immagini/video - 8 (2 ORE Lezione): Inverse perspective mapping - 9 (2 ORE Esercitazione): Esercitazione su inverse perspective mapping - 10 (8 ORE Lezione): Thresholding. Filtri passa-basso. Filtri passa-alto. Operatori morfologici. Algoritmo di rilevamento dei bordi di Canny. Etichettatura delle componenti connesse. - 11 (4 ORE Esercitazione): Esercitazione su operatori puntuali e locali, operatori morfologici, rilevamento dei bordi e etichettatura delle componenti connesse. CONOSCENZE E CAPACITÀ DI COMPRENSIONE: Parametri principali di un sistema di acquisizione di immagini. Principali tecniche di pre-elaborazione delle immagini, ambiti di applicazioni, vantaggi e limiti. Libreria software OpenCV per la visione artificiale. CONOSCENZE E CAPACITÀ DI COMPRENSIONE APPLICATE: Individuare il sistema di acquisizione delle immagini a partire dalle specifiche relative alla distanza degli oggetti da analizzare, dell'area di inquadrare, della risoluzione minima. Individuare le tecniche di pre-elaborazione e di regionalizzazione delle immagine più adeguate per lo specifico problema di visione artificiale. Unità didattica 3: Interpretazione di immagini e video (ORE LEZIONE/ESERCITAZIONE/LABORATORIO 22/12/0) - 12 (4 ORE Lezione): Handcrafted feature extraction con PCA, LBP e HOG - 13 (2 ORE Esercitazione): Esercitazione su handcrafted feature extraction con PCA, LBP e HOG - 14 (4 ORE Lezione): Object detection mediante approcci basati sul deep learning - 15 (2 ORE Esercitazione): Esercitazione con object detector per il rilevamento di persone - 16 (4 ORE Lezione): Multi-object tracking - 17 (2 ORE Esercitazione): Esercitazione su tracking di persone - 18 (4 ORE Lezione): Pedestrian attribute recognition - 19 (2 ORE Esercitazione): Esercitazione su pedestrian attribute recognition - 20 (4 ORE Lezione): Visual Question Answering su immagini - 21 (2 ORE Esercitazione): Esercitazione VQA su immagini - Pedestrian attribute recognition - 22 (2 ORE Lezione): Visual Question Answering su video - 23 (2 ORE Esercitazione): Esercitazione VQA su video - Spatio temporal video grounding CONOSCENZE E CAPACITÀ DI COMPRENSIONE: Rilevamento e riconoscimento di oggetti mediante tecniche di machine learning tradizionale e con tecniche di deep learning. Analisi di immagini e video con algoritmi di tracking e sistemi multimodali. CONOSCENZE E CAPACITÀ DI COMPRENSIONE APPLICATE: Applicare tecniche di machine learning tradizionale e deep learning per la realizzazione di un sistema di rilevamento e riconoscimento di oggetti. Applicare tecniche di visione artificiale, anche basate su tecnologie multimodali testo-immagine o testo-video, per la videoanalisi. Unità didattica 4: PROJECT WORK (ORE LEZIONE/ESERCITAZIONE/LABORATORIO 0/0/2) - 24 (2 ORE Laboratorio): Presentazione progetto finale del corso CONOSCENZE E CAPACITÀ DI COMPRENSIONE: - CONOSCENZE E CAPACITÀ DI COMPRENSIONE APPLICATE: Progettare ed implementare un sistema di visione artificiale completo sfruttando le moderne tecnologie di visione artificiale. TOTALE ORE LEZIONE/ESERCITAZIONE/LABORATORIO 44/26/2 |
Metodi Didattici | |
---|---|
L’INSEGNAMENTO CONTEMPLA LEZIONI TEORICHE, ESERCITAZIONI IN AULA ED ESERCITAZIONI PRATICHE DI LABORATORIO. NELLE ESERCITAZIONI IN AULA VENGONO ASSEGNATI AGLI STUDENTI, SIA INDIVIDUALMENTE CHE DIVISI PER GRUPPI DI LAVORO, DEI PROGETTO DA SVILUPPARE UTILIZZANDO I CONTENUTI DELL’INSEGNAMENTO. I PROGETTI SONO STRUMENTALI, OLTRE ALL’ACQUISIZIONE DELLE COMPETENZE E ABILITÀ SUI CONTENUTI DELL’INSEGNAMENTO, ANCHE A SVILUPPARE E RAFFORZARE LE CAPACITÀ DI LAVORARE IN TEAM. NELLE ESERCITAZIONI IN LABORATORIO GLI STUDENTI IMPLEMENTANO I PROGETTI ASSEGNATO UTILIZZANDO LA LIBRERIA OPENCV. PER POTER SOSTENERE LA VERIFICA FINALE DEL PROFITTO E CONSEGUIRE I CFU RELATIVI ALL’ATTIVITÀ FORMATIVA, LO STUDENTE DOVRÀ AVERE FREQUENTATO ALMENO IL 70% DELLE ORE PREVISTE DI ATTIVITÀ DIDATTICA ASSISTITA. |
Verifica dell'apprendimento | |
---|---|
LA PROVA DI ESAME È FINALIZZATA A VALUTARE NEL SUO COMPLESSO: LA CONOSCENZA E LA CAPACITÀ DI COMPRENSIONE DEI CONCETTI PRESENTATI AL CORSO; LA CAPACITÀ DI APPLICARE TALI CONOSCENZE PER LA RISOLUZIONE DI PROBLEMI DI PROGRAMMAZIONE CHE RICHIEDONO L’USO DI TECNICHE DI VISIONE ARTIFICIALE; L’AUTONOMIA DI GIUDIZIO, LE ABILITÀ COMUNICATIVE E LA CAPACITÀ DI APPRENDERE. LA PROVA SI ARTICOLA IN DUE FASI: UNA PRIMA CONSISTE IN UN COLLOQUIO ORALE E NELLA DISCUSSIONE DEI MID TERM PROJECTS SVOLTI DURANTE IL CORSO. UNA SECONDA FASE PREVEDE LA REALIZZAZIONE DI UN FINAL TERM PROJECT: GLI STUDENTI, DIVISI IN TEAM, DEVONO REALIZZARE UN SISTEMA FINALIZZATO AD UNA COMPETIZIONE TRA I VARI TEAM. SONO OGGETTO DI VALUTAZIONE LE SCELTE PROGETTUALI E METODOLOGICHE EFFETTUATE, INSIEME CON IL RISULTATO OTTENUTO DAL TEAM DURANTE LA COMPETIZIONE. LO SCOPO E’ QUELLO DI VALUTARE LE CONOSCENZE E LE CAPACITÀ DI COMPRENSIONE ACQUISITE, LA CAPACITÀ DI APPLICARE LE CONOSCENZE, L’AUTONOMIA DI GIUDIZIO E LA CAPACITÀ DI LAVORARE IN GRUPPO. NELLA VALUTAZIONE FINALE, ESPRESSA IN TRENTESIMI, LA VALUTAZIONE DEI MID TERM PROJECTS E DEL COLLOQUIO ORALE PESERÀ PER IL 40%, MENTRE IL FINAL TERM PROJECT PESERÀ PER IL 60%. LA LODE POTRÀ ESSERE ATTRIBUITA AGLI STUDENTI CHE DIMOSTRINO DI SAPER APPLICARE LE CONOSCENZE ACQUISITE CON AUTONOMIA ANCHE IN CONTESTI DIVERSI DA QUELLI PROPOSTI NEL CORSO |
Testi | |
---|---|
DISPENSE FORNITE DAI DOCENTI. SZELISKI. “COMPUTER VISION: ALGORITHMS AND APPLICATIONS”, SPRINGER M. SONKA, V. HLAVAC, R. BOYLE: "IMAGE PROCESSING, ANALYSIS AND MACHINE VISION", CHAPMAN & HALL. IL MATERIALE DIDATTICO SARà DISPONIBILE NELLA SEZIONE DEDICATA DELL'INSEGNAMENTO ALL'INTERNO DELLA PIATTAFORMA E-LEARNING DI ATENEO (HTTP://ELEARNING.UNISA.IT) ACCESSIBILE AGLI STUDENTI DEL CORSO TRAMITE LE CREDENZIALI UNICHE DI ATENEO |
Altre Informazioni | |
---|---|
L'INSEGNAMENTO È EROGATO IN INGLESE. |
BETA VERSION Fonte dati ESSE3