Detail publikace

BESST Dataset: A Multimodal Resource for Speech-based Stress Detection and Analysis

PEŠÁN, J.; JUŘÍK, V.; KARAFIÁT, M.; ČERNOCKÝ, J. BESST Dataset: A Multimodal Resource for Speech-based Stress Detection and Analysis. In Proceedings of Interspeech 2024. Proceedings of Interspeech. Kos: International Speech Communication Association, 2024. p. 1355-1359. ISSN: 1990-9772.
Název česky
BESST Dataset: Multimodální databáze pro detekci a analýzu stresu na základě řeči
Typ
článek ve sborníku konference
Jazyk
anglicky
Autoři
URL
Klíčová slova

BESST dataset, stress recognition, multimodal data, speech research,
physiological signals, cognitive load, speech production

Abstrakt

Brněnský rozšířený zátěžový a řečový test (BESST) je novým zdrojem pro komunitu
zabývající se výzkumem řeči, který nabízí multimodální audiovizuální,
fyziologická a psychologická data, která umožňují zkoumat souhru stresu a řeči.
V tomto článku představujeme datovou sadu BESST a poskytujeme podrobnosti o jejím
designu, protokolech sběru a technických aspektech. Soubor dat obsahuje vzorky
řeči, fyziologické signály (včetně elektrokardiogramu, elektrodermální aktivity,
teploty kůže a údajů o zrychlení) a videozáznamy od 90 subjektů provádějících
úkoly vyvolávající stres. Zahrnuje 16,9 hodin čistých dat české řeči, v průměru
15 minut čisté řeči na účastníka. Postup sběru dat zahrnuje indukci kognitivního
a fyzického stresu vyvolaného úlohou Reading Span (RSPAN) a úlohou Hand Immersion
(HIT). Soubor dat BESST byl shromážděn podle přísných etických standardů a je
dostupný pro výzkum a vývoj.

Rok
2024
Strany
1355–1359
Časopis
Proceedings of Interspeech, roč. 2024, č. 9, ISSN 1990-9772
Sborník
Proceedings of Interspeech 2024
Konference
Interspeech Conference, Kos, GR
Vydavatel
International Speech Communication Association
Místo
Kos
DOI
EID Scopus
BibTeX
@inproceedings{BUT193740,
  author="PEŠÁN, J. and JUŘÍK, V. and KARAFIÁT, M. and ČERNOCKÝ, J.",
  title="BESST Dataset: A Multimodal Resource for Speech-based Stress Detection and Analysis",
  booktitle="Proceedings of Interspeech 2024",
  year="2024",
  journal="Proceedings of Interspeech",
  volume="2024",
  number="9",
  pages="1355--1359",
  publisher="International Speech Communication Association",
  address="Kos",
  doi="10.21437/Interspeech.2024-42",
  issn="1990-9772",
  url="https://www.isca-archive.org/interspeech_2024/pesan24_interspeech.pdf"
}
Soubory
Nahoru