中文版 | English
题名

Prototypical networks for small footprint text-independent speaker verification

作者
通讯作者Chen,Yangbin
DOI
发表日期
2020-05-01
ISSN
1520-6149
会议录名称
卷号
2020-May
页码
6804-6808
摘要
Speaker verification aims to recognize target speakers with very few enrollment utterances. Conventional approaches learn a representation model to extract the speaker embeddings for verification. Recently, there are several new approaches in meta-learning which try to learn a shared metric space. Among these approaches, prototypical networks aim at learning a non-linear mapping from the input space to an embedding space with a predefined distance metric. In this paper, we investigate the use of prototypical networks in a small footprint text-independent speaker verification task. Our work is evaluated on SRE10 evaluation set. Experiments show that prototypical networks outperform the conventional method when the amount of data per training speaker is limited.
关键词
学校署名
第一
语种
英语
相关链接[Scopus记录]
收录类别
EI入藏号
20203909217088
EI主题词
Speech recognition ; Computer vision
EI分类号
Artificial Intelligence:723.4 ; Computer Applications:723.5 ; Vision:741.2 ; Speech:751.5
Scopus记录号
2-s2.0-85091147221
来源库
Scopus
引用统计
被引频次[WOS]:0
成果类型会议论文
条目标识符http://sustech.caswiz.com/handle/2SGJ60CL/187999
专题工学院_计算机科学与工程系
作者单位
1.Department of Computer Science and Engineering,South University of Science and Technology,Shenzhen,China
2.Department of Computer Science,City University of Hong Kong,Hong Kong
3.Department of Computing,Hong Kong Polytechnic University,Hong Kong
第一作者单位计算机科学与工程系
第一作者的第一单位计算机科学与工程系
推荐引用方式
GB/T 7714
Ko,Tom,Chen,Yangbin,Li,Qing. Prototypical networks for small footprint text-independent speaker verification[C],2020:6804-6808.
条目包含的文件
条目无相关文件。
个性服务
原文链接
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
导出为Excel格式
导出为Csv格式
Altmetrics Score
谷歌学术
谷歌学术中相似的文章
[Ko,Tom]的文章
[Chen,Yangbin]的文章
[Li,Qing]的文章
百度学术
百度学术中相似的文章
[Ko,Tom]的文章
[Chen,Yangbin]的文章
[Li,Qing]的文章
必应学术
必应学术中相似的文章
[Ko,Tom]的文章
[Chen,Yangbin]的文章
[Li,Qing]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
[发表评论/异议/意见]
暂无评论

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。