Detail publikace
Clustering Unsupervised Representations as Defense against Poisoning Attacks on Speech Commands Classification System
JOSHI, S.
LI, H.
Šůstek Martin, Ing. (UPGM)
VILLALBA LOPEZ, J.
Khudanpur Sanjeev
Dehak Najim
poisoning útoky, reprezentace získané s učením bez učitele, shlukování, řečové příkazy, obrana proti útoku na řečové systémy
Při poisoning útocích útočníci záměrně upravují trénovací data. V tomto článku se zabýváme scénářem útoku Dirty-Label Backdoor na klasifikátor hlasových příkazů. Předpokládáme, že určité promluvy z jedné ze klasifikačních tříd (zdrojová třída) jsou modifikovány pomocí spouštěče útoku a útočník změní označení třídy (cílová třída). Proti takovému útoku navrhujeme filtrační obranu. Nejprve získáme reprezentace každé promluvy pomocí DINO modelu. Dále použijeme K-means a LDA ke shlukování těchto reprezentací. Nakonec ponecháme pouze promluvy, jejichž třída je v rámci shluku, ke kterému je přiřazena, nejvíce zastoupena. Když je napadeno 10% promluv ze zdrojové třídy, pak demonstrujeme pokles úspěšnosti útoku z 99,75 % na 0,25 %. Testujeme naši obranu s různými cílovými a zdrojovými třídami, stejně jako variací spouštěčů útoku.
@inproceedings{BUT187976,
author="THEBAUD, T. and JOSHI, S. and LI, H. and ŠŮSTEK, M. and VILLALBA LOPEZ, J. and KHUDANPUR, S. and DEHAK, N.",
title="Clustering Unsupervised Representations as Defense against Poisoning Attacks on Speech Commands Classification System",
booktitle="Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop (ASRU)",
year="2023",
pages="1--8",
publisher="IEEE Signal Processing Society",
address="Taipei",
doi="10.1109/ASRU57964.2023.10389650",
isbn="979-8-3503-0689-7",
url="https://ieeexplore.ieee.org/document/10389650"
}