Neprijateljski napadi na modele za klasifikaciju slike

Sažetak na hrvatskom: Nadzirani diskriminativni modeli sastavni su dio mnogih sustava računalnog vida. No, poznato je da su ranjivi neprijateljskim primjerima što je neprihvatljivo za osjetljive produkcijske sustave. Upravo iz toga proizlazi važnost poznavanja njihove funkcionalnosti, razloga postoj...

Full description

Permalink: http://skupni.nsk.hr/Record/fer.KOHA-OAI-FER:50917/Details
Glavni autor: Vukić, Krešimir (-)
Ostali autori: Šegvić, Siniša (Thesis advisor)
Vrsta građe: Drugo
Impresum: Zagreb, K. Vukić, 2019.
Predmet:
LEADER 02532na a2200229 4500
003 HR-ZaFER
008 160221s2019 ci ||||| m||| 00| 0 en d
035 |a (HR-ZaFER)ferid6781 
040 |a HR-ZaFER  |b hrv  |c HR-ZaFER  |e ppiak 
100 1 |a Vukić, Krešimir  |9 40189 
245 1 0 |a Neprijateljski napadi na modele za klasifikaciju slike :  |b diplomski rad /  |c Krešimir Vukić ; [mentor Siniša Šegvić]. 
246 1 |a Adversarial attacks on image classification models  |i Naslov na engleskom:  
260 |a Zagreb,  |b K. Vukić,  |c 2019. 
300 |a 29 str. ;  |c 30 cm +  |e CD-ROM 
502 |b diplomski studij  |c Fakultet elektrotehnike i računarstva u Zagrebu  |g smjer: Računarska znanost, šifra smjera: 56, datum predaje: 2019-06-28, datum završetka: 2019-07-15 
520 3 |a Sažetak na hrvatskom: Nadzirani diskriminativni modeli sastavni su dio mnogih sustava računalnog vida. No, poznato je da su ranjivi neprijateljskim primjerima što je neprihvatljivo za osjetljive produkcijske sustave. Upravo iz toga proizlazi važnost poznavanja njihove funkcionalnosti, razloga postojanja i mogućih obrana. U ovoj tezi opisana je nekolicina postojećh neprijateljskih napada i primjenjivih obrana. Napadi FGSM i PGD te obrana treniranja sa neprijateljskim primjerima su implementirani i testirani na MNIST i SVHN podatkovnim skupovima. Također, istražen je utjecaj različitih perturbacijskih normi na utjecaj klasifikacije. 
520 3 |a Sažetak na engleskom: Strongly supervised discriminative models are the principal ingredient in many computer vision applications. However, discriminative models are known for being vulnerable to adversarial examples which is unacceptable for production systems. Hence, the techniques for constructing adversarial examples and building defenses against them are a very important research topic. This thesis consists of brief descriptions of existing adversarial attacks and applicable defenses. FGSM and PGD attacks, as well as defense through adversarial training, are developed and tested on the MNIST and SVHN data sets. Also, the influence of the perturbation norm on the efficiency of the attacks is briefly described. 
653 1 |a neprijateljski napadi  |a obrana neuronske mreže  |a nadzirano učenje  |a napad pgd  |a napad fgsm  |a treniranje neprijateljskim primjerima  |a norma udaljenosti 
653 1 |a adversarial attacks  |a neural network defenses  |a supervised learning  |a pgd attack  |a fgsm attack  |a adversarial training  |a perturbation norm 
700 1 |a Šegvić, Siniša  |4 ths  |9 18165 
942 |c Y 
999 |c 50917  |d 50917