CN113143217B - 一种预测人体发声效果的方法及系统 - Google Patents
一种预测人体发声效果的方法及系统 Download PDFInfo
- Publication number
- CN113143217B CN113143217B CN202110496939.1A CN202110496939A CN113143217B CN 113143217 B CN113143217 B CN 113143217B CN 202110496939 A CN202110496939 A CN 202110496939A CN 113143217 B CN113143217 B CN 113143217B
- Authority
- CN
- China
- Prior art keywords
- information
- sounding
- sound
- organ
- effect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000694 effects Effects 0.000 title claims abstract description 146
- 238000000034 method Methods 0.000 title claims abstract description 48
- 210000000056 organ Anatomy 0.000 claims abstract description 213
- 230000002980 postoperative effect Effects 0.000 claims abstract description 37
- 238000004519 manufacturing process Methods 0.000 claims abstract description 4
- 230000008439 repair process Effects 0.000 claims description 20
- 239000002537 cosmetic Substances 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 4
- 238000002316 cosmetic surgery Methods 0.000 claims 1
- 210000001260 vocal cord Anatomy 0.000 description 34
- 230000001755 vocal effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 102000008186 Collagen Human genes 0.000 description 1
- 108010035532 Collagen Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229920001436 collagen Polymers 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 208000011293 voice disease Diseases 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Abstract
本发明提出了一种预测人体发声效果的方法及系统,涉及嗓音整容技术领域。一种预测人体发声效果的方法,包括以下步骤:获取用户的发声器官信息;根据用户的发声器官信息获取对应的预计术后发声器官信息;将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。预置的发声效果模型中有多个样本的发声器官信息及发声效果,通过将输入的预计术后发声器官信息与预置的发声效果模型中的发声器官信息进行对比,可以得到预测发声效果信息,通过预测发声效果信息可以使用户了解到术后的发声效果,从而可以在手术之前就可以预先知道矫正后的效果,为用户提供了手术效果的数据支撑,方便用户了解手术方案及效果。
Description
技术领域
本发明涉及嗓音整容技术领域,具体而言,涉及一种预测人体发声效果的方法及系统。
背景技术
过去,声带手术主要用于声带有疾病或受伤的人群,后来有人发现,这些病人在做完手术后声音普遍比以前好听,便有人萌生了嗓音整容的想法。截至21世纪初,嗓音学在国外只有五十多年的历史,是一门年轻的学科。但随着社会需求的发展,人们对自己的嗓音也开始提出了各种要求,这便促使了嗓音整容领域的迅速蓬勃发展。
目前只是对运用嗓音作为职业的人员的嗓音疾病或缺陷进行恢复性的治疗和矫正,但是对治疗及矫正的效果要做完手术之后才能知道矫治的效果,无法预先知道矫正后的效果。
发明内容
本发明的目的在于提供一种预测人体发声效果的方法及系统,用以改善现有技术中无法在手术之前预先知道矫正后的效果的问题。
第一方面,本申请实施例提供一种预测人体发声效果的方法,其包括以下步骤:
获取用户的发声器官信息;
根据用户的发声器官信息获取对应的预计术后发声器官信息;
将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。
上述实现过程中,通过获取用户的发声器官信息和根据用户的发声器官信息获取对应的预计术后发声器官信息;然后将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。预置的发声效果模型中有多个样本的发声器官信息及发声效果,通过将输入的预计术后发声器官信息与预置的发声效果模型中的发声器官信息进行对比,可以得到预测发声效果信息,通过预测发声效果信息可以使用户了解到术后的发声效果,从而可以在手术之前就可以预先知道矫正后的效果,为用户提供了手术效果的数据支撑,方便用户了解手术方案及效果。
基于第一方面,在本发明的一些实施例中,还包括以下步骤:
获取用户的术前发声器官信息;
获取对应术前发声器官信息的预计修复参数信息;
根据预计修复参数信息对术前发声器官信息进行更新,生成预计术后发声器官信息。
基于第一方面,在本发明的一些实施例中,还包括以下步骤:
将术前发声器官信息与预置的发声器官库中的发声器官信息进行匹配,以得到多个相似发声器官信息并展示给用户。
基于第一方面,在本发明的一些实施例中,包括以下步骤:
获取用户选择的相似发声器官信息;
将用户选择的相似发声器官信息与术前发声器官信息进行对比,得到对比结果,并根据对比结果生成预测修复参数信息。
基于第一方面,在本发明的一些实施例中,包括以下步骤:
获取多个样本的发声器官信息,以建立发声器官库。
基于第一方面,在本发明的一些实施例中,包括以下步骤:
获取各个样本的声音信息;
根据各个样本的发声器官信息中的标签信息和声音信息中的标签信息将各个样本的发声器官信息与对应的声音信息进行关联,以建立发声效果模型。
基于第一方面,在本发明的一些实施例中,上述将预计术后发声器官信息输入到预置的发声效果模型中,得到预测发声效果信息的步骤包括以下步骤:
将预计术后发声器官信息输入到预置的发声效果模型中;
通过发声效果模型将预计术后发声器官信息与各个样本的发声器官信息进行对比,得到相似发声器官信息;
提取相似发声器官信息对应的声音信息作为预测发声效果信息。
第二方面,本申请实施例提供一种预测人体发声效果的系统,包括:
第一信息获取模块,用于获取用户的发声器官信息;
第二信息获取模块,用于获取与用户的发声器官信息对应的预计术后发声器官信息;
预测发声效果模块,用于将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。
上述实现过程中,通过第一信息获取模块获取用户的发声器官信息和第二信息获取模块根据用户的发声器官信息获取对应的预计术后发声器官信息;然后预测发声效果模块将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。预置的发声效果模型中有多个样本的发声器官信息及发声效果,通过将输入的预计术后发声器官信息与预置的发声效果模型中的发声器官信息进行对比,可以得到预测发声效果信息,通过预测发声效果信息可以使用户了解到术后的发声效果,从而可以在手术之前就可以预先知道矫正后的效果,为用户提供了手术效果的数据支撑,方便用户了解手术方案及效果。
第三方面,本申请实施例提供一种电子设备,其包括存储器,用于存储一个或多个程序;处理器。当上述一个或多个程序被上述处理器执行时,实现如上述第一方面中任一项上述的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述第一方面中任一项上述的方法。
本发明实施例至少具有如下优点或有益效果:
本发明实施例提供一种预测人体发声效果的方法及系统,通过获取用户的发声器官信息和根据用户的发声器官信息获取对应的预计术后发声器官信息;然后将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。预置的发声效果模型中有多个样本的发声器官信息及发声效果,通过将输入的预计术后发声器官信息与预置的发声效果模型中的发声器官信息进行对比,可以得到预测发声效果信息,通过预测发声效果信息可以使用户了解到术后的发声效果,从而可以在手术之前就可以预先知道矫正后的效果,为用户提供了手术效果的数据支撑,方便用户了解手术方案及效果。通过将术前发声器官信息与预置的发声器官库中的发声器官信息进行匹配,以得到多个相似发声器官信息并展示给用户,得到多个相似发声器官信息可以使用户看到与自己相似的发声器官是什么样子的,从而有利于用户做出决定,通过获取用户选择的相似发声器官信息,并将用户选择的相似发声器官信息与术前发声器官信息进行对比,得到对比结果,根据对比结果生成预测修复参数信息,可以使用户知道需要改变声音特征,对应在发声器官上应该需要做出什么样的改变,从而为医学工作者提供了参考。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的一种预测人体发声效果的方法流程图;
图2为本发明实施例提供的一种预测人体发声效果的系统结构框图;
图3为本发明实施例提供的一种电子设备的结构框图。
图标:110-第一信息获取模块;120-第二信息获取模块;130-预测发声效果模块;101-存储器;102-处理器;103-通信接口。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括上述要素的过程、方法、物品或者设备中还存在另外的相同要素。
在本申请的描述中,需要说明的是,术语“上”、“下”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该申请产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
在本申请的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
实施例
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的各个实施例及实施例中的各个特征可以相互组合。
请参看图1,图1为本发明实施例提供的一种预测人体发声效果的方法流程图。该预测人体发声效果的方法,包括以下步骤:
步骤S110:获取用户的发声器官信息;发声器官包括声带、喉头等,可以用现代医学设备对人体发声器管进行精确的扫描建立完整的三维立体图像,例如对声带进行精确扫描,生成立体的声带图像。发声器官信息包括有发声器官的图像信息、参数信息等。如声带信息包括有声带的图像信息、声带长短、声带紧密度等。
步骤S120:根据用户的发声器官信息获取对应的预计术后发声器官信息;医生根据用户的发声器官信息作出手术方案,手术方案中就包括有做了手术后发声器官的信息。预计术后发声器官信息包括经过手术后的发声器官信息,比如预计手术后的声带长度、预计手术后的声带紧密度等。
步骤S130:将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。预置的发声效果模型中包括有多个样本的发声效果信息,发声效果信息包括有音频信息,对应声音的波形数据信息等。上述通过预置的发声效果模型生成预测发声效果信息包括以下步骤:
首先,将预计术后发声器官信息输入到预置的发声效果模型中;上述预置的发声效果模型是预先建立好的发声效果模型,预置的发声效果模型的建立包括以下过程:
第一步,获取各个样本的声音信息;各个样本是不同的人发出的不同的声音信息,可以录下各个样本发出不同频率的声音,将声音同时转化成可视的波形图。声音信息包括有标签信息、发出各种频率的声音、不同频率声音时的声带的震动状态、音频信息、波形信息等,其中标签信息包括有音质等级,音质等级可以有优质、良好、差。例如,通过仪器扫描记录下样本A的两种发声信息分别为声音A的信息和声音B的信息,声音A的信息包括了声音A的音频信息、波形信息、标签信息为优质;声音B的信息包括了声音B的音频信息、波形信息、标签信息为良好。
第二步,根据各个样本的发声器官信息中的标签信息和声音信息中的标签信息将各个样本的发声器官信息与对应的声音信息进行关联,以建立发声效果模型。上述发声器官信息包括有声带的震动状态、声带的形态、声带的参数信息、标签信息等,其中标签信息包括声带等级,声带等级可以有优质、良好、差。上述将各个样本的发声器官信息与对应的声音信息进行关联主要是指将各个样本的发声器官信息中的标签信息和声音信息中的标签信息进行对应等级关联,这样就建立起了声带在发声时的形态和声音特征之间的关联关系,形成了发声效果模型。例如:样本甲发出的声音有声音A和声音B,首先在样本甲为优质发声样本,发出声音A时通过扫描仪器扫描出发声器官的形态,同时记录下声音A的声音,发出声音B时通过扫描仪器扫描出发声器官的形态,同时记录下声音B的声音样本甲发声器官的标签信息为优质,声音A和声音B的标签信息为优质,因此通过样本甲发声器官的标签信息和声音信息中的标签信息进行关联,得到样本甲的发声器官关联的声音A和声音B。样本乙发出的声音有声音C和声音D,首先在样本乙为差发声样本,发出声音C时通过扫描仪器扫描出发声器官的形态,同时记录下声音C的声音,发出声音D时通过扫描仪器扫描出发声器官的形态,同时记录下声音D的声音样本乙发声器官的标签信息为差,声音C和声音D的标签信息为差,因此通过样本乙发声器官的标签信息和声音信息中的标签信息进行关联,得到样本乙的发声器官关联的声音C和声音D。
然后,通过发声效果模型将预计术后发声器官信息与各个样本的发声器官信息进行对比,得到相似发声器官信息;可以通过对比发声器官信息中的参数信息来得到相似发声器官信息。比如预计术后发声器官信息中声带的长度为15mm,通过与各个样本的发声器官信息中的声带的长度进行对比,得到声带的长度在14mm-18mm的样本有样本A、样本B;提取样本A、样本B的发声器官信息,从而得到相似发声器官信息。
最后,提取相似发声器官信息对应的声音信息作为预测发声效果信息。例如,得到相似发声器官信息有样本A、样本B,将样本A对应的声音信息和样本B的声音信息作为预测发声效果信息。声音信息可以包括有音频信息、波形信息、标签信息等。
上述实现过程中,通过获取用户的发声器官信息和根据用户的发声器官信息获取对应的预计术后发声器官信息;然后将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。预置的发声效果模型中有多个样本的发声器官信息及发声效果,通过将输入的预计术后发声器官信息与预置的发声效果模型中的发声器官信息进行对比,可以得到预测发声效果信息,通过预测发声效果信息可以使用户了解到术后的发声效果,从而可以在手术之前就可以预先知道矫正后的效果,为用户提供了手术效果的数据支撑,方便用户了解手术方案及效果。
其中,预计术后发声器官信息还可以通过输入预计修复参数信息得到,具体包括以下步骤:
首先,获取用户的术前发声器官信息;
其次,获取对应术前发声器官信息的预计修复参数信息;预计修复参数信息可以包括发声器官的参数信息,例如预计修复参数信息可以为调节声带长度2mm,预计修复参数信息可以为切开颈部插入移植物的体积为3mm3,预计修复参数信息还可以为注射脂肪或胶原质5ml。
然后,根据预计修复参数信息对术前发声器官信息进行更新,生成预计术后发声器官信息。将获取到的预计修复参数信息与术前发声器官信息进行计算,得到预计术后发声器官信息。例如,术前发声器官信息中声带的长度为19mm,预计修复参数信息为调整声带长度为4mm,可以得到预计修复参数信息为15mm。
其中,用户还可以查看多个相似发声器官信息,具体包括以下步骤:
将术前发声器官信息与预置的发声器官库中的发声器官信息进行匹配,以得到多个相似发声器官信息并展示给用户。上述匹配过程是指将术前发声器官信息与预置的发声器官库中的发声器官信息进行一一对比,从而得到多个相似发声器官信息并展示给用户,可以是在将发声器官参数完全一样和一定差异范围内的作为相似发声器官信息,差异范围可以由用户自己设定。例如:术前发声器官信息中的声带长度为13mm,预置的发声器官库中有样本A的声带长度为14mm,有样本B的声带长度为9mm,样本C的声带长度为13mm,样本D的声带长度为15mm,样本E的声带长度为17mm;可以得到相似发声器官信息有样本A、C、D,并将样本A、C、D的发声器官信息展示给用户。
其中,上述预置的发声器官库的建立是通过获取多个样本的发声器官信息,以建立发声器官库。各个样本的发声器官信息可以用仪器扫描记录下发出各个样本发出不同频率声音时的声带的震动状态和形态。
其中,用户可以通过选择相似发声器官信息得到需要修复的参数信息,具体包括以下步骤:
首先,获取用户选择的相似发声器官信息;用户在展示出的多个相似发声器官信息中选择出相似发声器官信息。例如,用户在相似发声器官信息有样本A、C、D中选择了样本A,从而可以获取样本A的发声器官信息。
然后,将用户选择的相似发声器官信息与术前发声器官信息进行对比,得到对比结果,并根据对比结果生成预测修复参数信息。上述对比过程是指将相似发声器官信息中的参数与术前发声器官信息中的参数进行对比,得到差异结果作为对比结果。例如,用户选择了样本A的相似发声器官信息,对应的相似发声器官信息为声带长度为14mm,术前发声器官信息的声带长度为13mm,经过对比得到对比结果为相似发声器官信息比术前发声器官信息少1mm,根据对比结果生成预测修复参数信息为将声带长度经过手术调整为13mm。
上述实现过程中,通过将术前发声器官信息与预置的发声器官库中的发声器官信息进行匹配,以得到多个相似发声器官信息并展示给用户,得到的多个相似发声器官信息可以使用户看到与自己相似的发声器官是什么样子的,从而有利于用户做出决定,通过获取用户选择的相似发声器官信息,并将用户选择的相似发声器官信息与术前发声器官信息进行对比,得到对比结果,根据对比结果生成预测修复参数信息,可以使用户知道需要改变声音特征,对应在发声器官上应该需要做出什么样的改变,从而为医学工作者提供了参考。
基于同样的发明构思,本发明还提出一种预测人体发声效果的系统,请参看图2,图2为本发明实施例提供的一种预测人体发声效果的系统结构框图。上述一种预测人体发声效果的系统包括:
第一信息获取模块110,用于获取用户的发声器官信息;
第二信息获取模块120,用于获取与用户的发声器官信息对应的预计术后发声器官信息;
预测发声效果模块130,用于将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。
上述实现过程中,通过第一信息获取模块110获取用户的发声器官信息和第二信息获取模块120根据用户的发声器官信息获取对应的预计术后发声器官信息;然后预测发声效果模块130将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。预置的发声效果模型中有多个样本的发声器官信息及发声效果,通过将输入的预计术后发声器官信息与预置的发声效果模型中的发声器官信息进行对比,可以得到预测发声效果信息,通过预测发声效果信息可以使用户了解到术后的发声效果,从而可以在手术之前就可以预先知道矫正后的效果,为用户提供了手术效果的数据支撑,方便用户了解手术方案及效果。
请参阅图3,图3为本申请实施例提供的电子设备的一种示意性结构框图。电子设备包括存储器101、处理器102和通信接口103,该存储器101、处理器102和通信接口103相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器101可用于存储软件程序及模块,如本申请实施例所提供的一种预测人体发声效果的系统对应的程序指令/模块,处理器102通过执行存储在存储器101内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口103可用于与其他节点设备进行信令或数据的通信。
其中,存储器101可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器102可以是一种集成电路芯片,具有信号处理能力。该处理器102可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可以理解,图3所示的结构仅为示意,电子设备还可包括比图3中所示更多或者更少的组件,或者具有与图3所示不同的配置。图3中所示的各组件可以采用硬件、软件或其组合实现。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,上述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
上述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
综上,本申请实施例提供的一种预测人体发声效果的方法及系统,通过获取用户的发声器官信息和根据用户的发声器官信息获取对应的预计术后发声器官信息;然后将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。预置的发声效果模型中有多个样本的发声器官信息及发声效果,通过将输入的预计术后发声器官信息与预置的发声效果模型中的发声器官信息进行对比,可以得到预测发声效果信息,通过预测发声效果信息可以使用户了解到术后的发声效果,从而可以在手术之前就可以预先知道矫正后的效果,为用户提供了手术效果的数据支撑,方便用户了解手术方案及效果。
以上仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (10)
1.一种预测人体嗓音整容术后发声效果的方法,其特征在于,包括以下步骤:
获取用户的发声器官信息;
根据用户的发声器官信息获取对应的预计术后发声器官信息;
将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。
2.根据权利要求1所述的预测人体嗓音整容术后发声效果的方法,其特征在于,还包括以下步骤:
获取用户的术前发声器官信息;
获取对应术前发声器官信息的预计修复参数信息;
根据预计修复参数信息对术前发声器官信息进行更新,生成预计术后发声器官信息。
3.根据权利要求2所述的预测人体嗓音整容术后发声效果的方法,其特征在于,还包括以下步骤:
将术前发声器官信息与预置的发声器官库中的发声器官信息进行匹配,以得到多个相似发声器官信息并展示给用户。
4.根据权利要求3所述的预测人体嗓音整容术后发声效果的方法,其特征在于,包括以下步骤:
获取用户选择的相似发声器官信息;
将用户选择的相似发声器官信息与术前发声器官信息进行对比,得到对比结果,并根据对比结果生成预测修复参数信息。
5.根据权利要求1所述的预测人体嗓音整容术后发声效果的方法,其特征在于,包括以下步骤:
获取多个样本的发声器官信息,以建立发声器官库。
6.根据权利要求5所述的预测人体嗓音整容术后发声效果的方法,其特征在于,包括以下步骤:
获取各个样本的声音信息;
根据各个样本的发声器官信息中的标签信息和声音信息中的标签信息将各个样本的发声器官信息与对应的声音信息进行关联,以建立发声效果模型。
7.根据权利要求1所述的预测人体嗓音整容术后发声效果的方法,其特征在于,所述将预计术后发声器官信息输入到预置的发声效果模型中,得到预测发声效果信息的步骤包括以下步骤:
将预计术后发声器官信息输入到预置的发声效果模型中;
通过发声效果模型将预计术后发声器官信息与各个样本的发声器官信息进行对比,得到相似发声器官信息;
提取相似发声器官信息对应的声音信息作为预测发声效果信息。
8.一种预测人体嗓音整容术后发声效果的系统,其特征在于,包括:
第一信息获取模块,用于获取用户的发声器官信息;
第二信息获取模块,用于获取与用户的发声器官信息对应的预计术后发声器官信息;
预测发声效果模块,用于将预计术后发声器官信息输入到预置的发声效果模型中,生成预测发声效果信息。
9.一种电子设备,其特征在于,包括:
存储器,用于存储一个或多个程序;
处理器;
当所述一个或多个程序被所述处理器执行时,实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110496939.1A CN113143217B (zh) | 2021-05-07 | 2021-05-07 | 一种预测人体发声效果的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110496939.1A CN113143217B (zh) | 2021-05-07 | 2021-05-07 | 一种预测人体发声效果的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113143217A CN113143217A (zh) | 2021-07-23 |
CN113143217B true CN113143217B (zh) | 2024-01-26 |
Family
ID=76873952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110496939.1A Active CN113143217B (zh) | 2021-05-07 | 2021-05-07 | 一种预测人体发声效果的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113143217B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3887691B1 (ja) * | 2006-07-18 | 2007-02-28 | 国立大学法人 岡山大学 | 音声の基本周波数検出方法及び声帯特性評価装置 |
CN101916566A (zh) * | 2010-07-09 | 2010-12-15 | 西安交通大学 | 一种电子喉语音重建方法及其系统 |
CN103371870A (zh) * | 2013-07-16 | 2013-10-30 | 深圳先进技术研究院 | 一种基于多模影像的外科手术导航系统 |
CN105393252A (zh) * | 2013-04-18 | 2016-03-09 | 数字标记公司 | 生理数据采集和分析 |
CN109727608A (zh) * | 2017-10-25 | 2019-05-07 | 香港中文大学深圳研究院 | 一种基于中文语音的病态嗓音评估方法 |
CN110021435A (zh) * | 2017-09-07 | 2019-07-16 | 医疗财团法人徐元智先生医药基金会亚东纪念医院 | 嗓音侦测分类系统 |
CN112257912A (zh) * | 2020-10-15 | 2021-01-22 | 北京爱康宜诚医疗器材有限公司 | 预测手术评估信息的方法及装置、处理器、电子装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016105310A1 (en) * | 2014-12-22 | 2016-06-30 | Ege Universitesi | Doctorvox: voice therapy and vocal training device |
US11531738B2 (en) * | 2019-04-29 | 2022-12-20 | Cirrus Logic, Inc. | Methods, apparatus and systems for biometric processes |
-
2021
- 2021-05-07 CN CN202110496939.1A patent/CN113143217B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3887691B1 (ja) * | 2006-07-18 | 2007-02-28 | 国立大学法人 岡山大学 | 音声の基本周波数検出方法及び声帯特性評価装置 |
CN101916566A (zh) * | 2010-07-09 | 2010-12-15 | 西安交通大学 | 一种电子喉语音重建方法及其系统 |
CN105393252A (zh) * | 2013-04-18 | 2016-03-09 | 数字标记公司 | 生理数据采集和分析 |
CN103371870A (zh) * | 2013-07-16 | 2013-10-30 | 深圳先进技术研究院 | 一种基于多模影像的外科手术导航系统 |
CN110021435A (zh) * | 2017-09-07 | 2019-07-16 | 医疗财团法人徐元智先生医药基金会亚东纪念医院 | 嗓音侦测分类系统 |
CN109727608A (zh) * | 2017-10-25 | 2019-05-07 | 香港中文大学深圳研究院 | 一种基于中文语音的病态嗓音评估方法 |
CN112257912A (zh) * | 2020-10-15 | 2021-01-22 | 北京爱康宜诚医疗器材有限公司 | 预测手术评估信息的方法及装置、处理器、电子装置 |
Non-Patent Citations (3)
Title |
---|
《Perceptual Assessment and Acoustic Voice Analysis as Screening Tests for Vocal Fold Paresis After Thyroid or Parathyroid Surgery》;Maria Heikkinen等;《ORIGINAL SCIENTIFIC REPORT》;765-773 * |
《喉癌手术治疗的临床疗效及预后分析》;周春玲;《医药卫生科技辑》;E072-77 * |
《嗓音质量评估研究进展》;康沙沙等;《山东大学耳鼻喉眼学报》;第28卷(第1期);76-78 * |
Also Published As
Publication number | Publication date |
---|---|
CN113143217A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7145195B2 (ja) | 高度な病理診断 | |
Jacoby et al. | Integer ratio priors on musical rhythm revealed cross-culturally by iterated reproduction | |
CN106448630B (zh) | 歌曲的数字乐谱文件的生成方法和装置 | |
Dufeau et al. | Ontogeny of the middle-ear air-sinus system in Alligator mississippiensis (Archosauria: Crocodylia) | |
Piazza et al. | Humans use summary statistics to perceive auditory sequences | |
Dey et al. | Age-related differences in inhibitory control predict audiovisual speech perception. | |
Vorperian et al. | Developmental sexual dimorphism of the oral and pharyngeal portions of the vocal tract: An imaging study | |
Barney et al. | Articulatory capacity of Neanderthals, a very recent and human-like fossil hominin | |
Chen et al. | Pursuing mirror image reconstruction in unilateral microtia: customizing auricular framework by application of three-dimensional imaging and three-dimensional printing | |
US20190254572A1 (en) | Auditory training device, auditory training method, and program | |
Fuller et al. | Music and quality of life in early-deafened late-implanted adult cochlear implant users | |
Looi et al. | Music appreciation of adult hearing aid users and the impact of different levels of hearing loss | |
Plass et al. | Vision perceptually restores auditory spectral dynamics in speech | |
Traser et al. | Relevance of the implementation of teeth in three-dimensional vocal tract models | |
CN113143217B (zh) | 一种预测人体发声效果的方法及系统 | |
Pisanski et al. | Vocal size exaggeration may have contributed to the origins of vocalic complexity | |
Best et al. | A “buildup” of speech intelligibility in listeners with normal hearing and hearing loss | |
Hubbard et al. | Perceptual adaptation to gender and expressive properties in speech: The role of fundamental frequency | |
Boothroyd et al. | An on-line imitative test of speech-pattern contrast perception (OlimSpac): Developmental effects in normally hearing children | |
JP2021194527A (ja) | 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム | |
Shehata-Dieler et al. | Pre-speech diagnosis in hearing-impaired infants: How auditory experience affects early vocal development | |
Jongmans et al. | The intelligibility of tracheoesophageal speech, with an emphasis on the voiced-voiceless distinction | |
Peterson et al. | Contribution of hearing aids to music perception by cochlear implant users | |
CN113425293B (zh) | 一种听觉失认障碍评估系统及方法 | |
TWI307875B (en) | A method for processing of a speech signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |