声振论坛

 找回密码
 我要加入

QQ登录

只需一步,快速开始

查看: 2272|回复: 0

[小波] 基于小波谱图和深度卷积网络的音频场景识别新框架

[复制链接]
发表于 2018-12-7 13:09 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?我要加入

x
  近期,中国科学院语言声学与内容理解重点实验室博士生陈航艇及其导师张鹏远研究员等人提出了一种基于小波变换和深度卷积神经网络的场景识别新方法。

  近年来,网络上音频的种类和数量呈现爆发式增长。相比语音和音乐,音频中的环境信息更加多样,受到了国内外研究者的广泛关注。

  音频场景分类的目的是识别出录制音频的特定场景,从而使穿戴式设备、智能机器人感知周围的环境信息并做出相应反射。传统的音频分类任务大都使用短时特征,如梅尔频率倒谱系数等。然而,环境信息一般隐藏在不同时长的背景声中,因此提取多分辨率多尺度的特征是音频场景分类的关键。

  此次,研究人员提出的音频场景分类系统包括前端和后端两个模块。前端采用不同时长和频率分布的小波滤波器来提取小波谱图,此滤波器组可以同时捕捉到转瞬即逝的音频事件和长时的韵律节奏。后端的深度卷积神经网络结合小卷积核和池化操作,将“高维语义”从原始特征中抽象出来。

  在相关场景数据集上的实验结果表明,使用小波谱图和深度卷积神经网络的音频场景识别表现明显优于传统的短时特征。相比短时特征,长时的小波谱图的时间分辨率较低,一定程度上降低了存储和计算的要求。

  该研究为音频场景的分析提供了新的前后端架构,为环境声音的研究提供了新思路。
1.png
  ▲ 基于小波变换和深度卷积网络的场景识别系统(图/陈航艇)

  相关研究成果已被 Proceedings of the Annual Conference of the International SpeechCommunication Association (2018) 收录。

  参考文献:
  CHEN Hangting, ZHANG Pengyuan, BAI Haichuan, YUAN Qingsheng, BAOXiuguo, YAN Yonghong. Deep Conventional Neural Network with Scalogram for Audio Scene Modeling. Proceedingsof the Annual Conference of the International Speech Communication Association,INTERSPEECH,v 2018-September, p 3304-3308. DOI: 10.21437/Interspeech.2018-1524.

  论文链接:
  https://www.isca-speech.org/arch ... _2018/pdfs/1524.pdf

  来源:中科院声学所微信公众号(ID:cas-ioa),作者:陈航艇。

回复
分享到:

使用道具 举报

您需要登录后才可以回帖 登录 | 我要加入

本版积分规则

QQ|小黑屋|Archiver|手机版|联系我们|声振论坛

GMT+8, 2024-12-27 21:19 , Processed in 0.091375 second(s), 21 queries , Gzip On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表