Detail publikace

Progressive contrastive learning for self-supervised text-independent speaker verification

PENG, J.; ZHANG, C.; ČERNOCKÝ, J.; YU, D. Progressive contrastive learning for self-supervised text-independent speaker verification. Proceedings of The Speaker and Language Recognition Workshop (Odyssey 2022). Beijing: International Speech Communication Association, 2022. p. 17-24.
Název česky
Progresivní kontrastivní učení pro samoučící se ověřování mluvčího nezávislé na textu
Typ
článek ve sborníku konference
Jazyk
anglicky
Autoři
URL
Klíčová slova

self-supervised, text-independent, speaker, verification

Abstrakt

Samokontrolované učení reprezentace mluvčího v posledních letech vzbudilo velkou pozornost. Většina práce je založena na iterativní klasifikaci seskupení učebních rámců a výkon je citlivý na předem definovaný počet clusterů. Nicméně, počet clusteru je těžké odhadnout, když s ním zachází rozsáhlá neoznačená data. V tomto dokumentu navrhujeme algoritmus progresivního kontrastivního učení (PCL). dynamicky odhadnout počet shluků v každém kroku na základě statistických charakteristik samotných dat, a odhadovaný počet se bude postupně přibližovat se vzrůstajícím počtem pozemských mluvčích krok. Konkrétně nejprve aktualizujeme datovou frontu o aktuální rozšířené vzorky. Pak eigendecomposition je zaveden pro odhad počtu mluvčích v aktualizovaná datová fronta. Nakonec přiřadíme data ve frontě do odhadnutého těžiště klastru a zkonstruujte kontrastivní ztráta, která podporuje reprezentaci mluvčího být blíže svému těžišti shluku a daleko od ostatních. Experimentální výsledky na VoxCeleb1 prokazují účinnost našeho navrhovaného PCL ve srovnání se stávajícími přístupy s vlastním dohledem.

Rok
2022
Strany
17–24
Sborník
Proceedings of The Speaker and Language Recognition Workshop (Odyssey 2022)
Vydavatel
International Speech Communication Association
Místo
Beijing
DOI
BibTeX
@inproceedings{BUT179661,
  author="Junyi {Peng} and Chunlei {Zhang} and Jan {Černocký} and Dong {Yu}",
  title="Progressive contrastive learning for self-supervised text-independent speaker verification",
  booktitle="Proceedings of The Speaker and Language Recognition Workshop (Odyssey 2022)",
  year="2022",
  pages="17--24",
  publisher="International Speech Communication Association",
  address="Beijing",
  doi="10.21437/Odyssey.2022-3",
  url="https://www.isca-speech.org/archive/pdfs/odyssey_2022/peng22_odyssey.pdf"
}
Nahoru