技术新讯 > 乐器声学设备的制造及制作,分析技术 > 基于人工智能的语音辅助检测方法及系统与流程  >  正文

基于人工智能的语音辅助检测方法及系统与流程

  • 国知局
  • 2024-06-21 10:40:39

本技术涉及语音分析领域,尤其涉及一种基于人工智能的语音辅助检测方法及系统。

背景技术:

1、智能问答系统是一种基于人工智能技术的医疗问答系统,智能问答系统通过自然语言处理和语义理解技术,能够自动回答患者关于医院科室、医生排班、检查报告查询、住院办理、药品购买等问题。同时,智能问答系统还可以根据患者描述的症状,起到辅助问诊的作用。但由于智能问答系统仅能进行语义理解,无法分析患者语音中发音特征的情况。因此,对于无法分析发音特征的情况下,需要医生与患者面对面进行问诊,在问诊环节中,医生通过与患者进行问诊交流的同时,结合患者的年龄、性别、病史等基础信息,通过听音的方式,起到对患者的语音检测的作用。

2、但通过听音的方式检测不同发音特征情况,较为依赖医生的经验,难以普及,还可通过人工智能(ai)的手段,训练深度学习模型,通过采集并分析语音,进而输出ai辅助检测数据。但应用于ai辅助的神经网络模型参数和权重在使用前已经固定,难以与基础信息特征、发音情况特征各不相同的语音进行差异化调整与适配,导致输出ai辅助检测数据的准确度较低。

技术实现思路

1、本技术提供一种基于人工智能的语音辅助检测方法及系统,以解决ai辅助检测数据的准确度低的问题。

2、第一方面,本技术提供一种基于人工智能的语音辅助检测方法,包括:

3、获取第一目标对象的声纹识别模型;

4、获取第二目标对象的历史基础数据,以将历史基础信息划分为多个基础信息类型,所述历史基础数据包括历史基础信息以及历史声音片段;

5、利用所述历史声音片段训练语音分析模型;

6、获取第二目标对象的基础数据,所述基础数据包括基础信息和声音片段;

7、将所述声音片段按照所述基础信息类型分类,以得到所述声音片段与所述语音分析模型的对应关系;

8、根据所述对应关系,将所述声音片段输入至所述语音分析模型内,以得到语音分析结果,所述语音分析结果包括所述声音片段的周期性指标和辅助检测结果;

9、根据所述周期性指标,调整所述语音分析模型的参数权重;

10、根据调整后的所述参数权重,将不同的所述辅助检测结果加权融合,以得到综合辅助检测结果。

11、可选的,所述根据所述对应关系,将所述声音片段输入至所述语音分析模型内,以得到语音分析结果,包括:

12、获取所述第一目标对象和第二目标对象的声音信号;

13、筛选出所述声音信号中的声音片段;

14、利用深度聚类算法将所述声音片段区分为第一说话人和第二说话人的声音片段;

15、将所述第一说话人和第二说话人的声音片段输入至所述第一目标对象的声纹识别模型,以判断第一说话人和第二说话人的身份,所述身份为第一目标对象或第二目标对象;

16、提取所述第二目标对象的声音片段,所述声音片段包括不同的发音特征片段;

17、将所述发音特征片段输入至所述语音分析模型中,以得到语音分析结果。

18、可选的,所述筛选出所述声音信号中的声音片段,包括:

19、利用端点检测将所述声音信号划分为人声片段和非人声片段,所述人声片段包括至少两种说话人发出的声音,所述非人声片段不包括说话人发出的声音。

20、可选的,所述方法还包括:

21、获取所述声音片段的持续时长;

22、将所述持续时长小于或等于预设持续时长阈值的所述声音片段定义为短时片段;

23、标注所述短时片段;

24、将带标记的所述短时片段输入至所述语音分析模型内,以得到带标记的语音分析结果。

25、可选的,所述利用所述历史声音片段训练语音分析模型,包括:

26、将所述历史声音片段按照所述基础信息类型分类,以得到多个子数据集;

27、将所述子数据集的声音片段划分为不同特征的发音片段;

28、利用不同特征的所述发音片段训练不同的所述语音分析模型,其中,不同特征的所述发音片段与所述语音分析模型存在对应关系。

29、可选的,所述方法还包括:

30、获取所述第二目标对象的实际检测结果;

31、标注所述综合辅助检测结果中与所述实际检测结果不同的声音片段;

32、将标注后的所述声音片段按照发音特征添加至子数据集中,以得到更新子数据集;

33、利用所述更新子数据集训练所述语音分析模型。

34、可选的,所述根据所述周期性指标,调整所述语音分析模型的参数权重,包括:

35、获取所述语音分析结果中不同的发音特征片段的周期性指标,所述周期性指标至少包括不同特征的发音片段的出现频次、总持续时长以及平均持续时长;

36、计算所述周期性指标的样本量完整度和样本量数量;

37、根据所述样本量完整度和/或样本量数量设置所述语音分析模型的参数权重比例。

38、可选的,所述获取第一目标对象的声纹识别模型,包括:

39、采集所述第一目标对象的声音片段;

40、构建声纹识别模型;

41、将所述声音片段作为训练集训练所述声纹识别模型,以得到所述第一目标对象的声纹识别模型。

42、第二方面,本技术提供一种基于人工智能的语音辅助检测系统,应用于第一方面所述的基于人工智能的语音辅助检测方法,包括:采集模块,处理模块以及调整模块;

43、所述采集模块用于获取第一目标对象的声纹识别模型;获取第二目标对象的历史基础数据,以将历史基础信息划分为多个基础信息类型,所述历史基础数据包括历史基础信息以及历史声音片段;获取第二目标对象的基础数据,所述基础数据包括基础信息和声音片段;

44、所述处理模块用于利用所述历史声音片段训练语音分析模型;将所述声音片段按照所述基础信息类型分类,以得到所述声音片段与所述语音分析模型的对应关系;根据所述对应关系,将所述声音片段输入至所述语音分析模型内,以得到语音分析结果,所述语音分析结果包括所述声音片段的周期性指标和辅助检测结果;

45、所述调整模块用于根据所述周期性指标,调整所述语音分析模型的参数权重;

46、所述处理模块还用于根据调整后的所述参数权重,将不同的所述辅助检测结果加权融合,以得到综合辅助检测结果。

47、可选的,所述系统还包括矫正模块,所述矫正模块用于获取所述第二目标对象的实际检测结果;标注所述综合辅助检测结果中与所述实际检测结果不同的声音片段;将标注后的所述声音片段按照发音特征添加至子数据集中,以得到更新子数据集;利用所述更新子数据集训练所述语音分析模型。

48、由以上技术方案可知,本技术提供一种基于人工智能的语音辅助检测方法及系统,所述方法包括:首先获取第一目标对象的声纹识别模型;再获取第二目标对象的历史基础数据,以将历史基础信息划分为多个基础信息类型,所述历史基础数据包括历史基础信息以及历史声音片段;其次利用所述历史声音片段训练语音分析模型;获取第二目标对象的基础数据,所述基础数据包括基础信息和声音片段;将所述声音片段按照所述基础信息类型分类,以得到所述声音片段与所述语音分析模型的对应关系;然后根据所述对应关系,将所述声音片段输入至所述语音分析模型内,以得到语音分析结果,所述语音分析结果包括所述声音片段的周期性指标和辅助检测结果;根据所述周期性指标,调整所述语音分析模型的参数权重;最后根据调整后的所述参数权重,将不同的所述辅助检测结果加权融合,以得到综合辅助检测结果,以解决ai辅助检测数据的准确度低的问题。

本文地址:https://www.jishuxx.com/zhuanli/20240618/21129.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。