CN116434755A - 语音分析系统 - Google Patents

语音分析系统 Download PDF

Info

Publication number
CN116434755A
CN116434755A CN202310427070.4A CN202310427070A CN116434755A CN 116434755 A CN116434755 A CN 116434755A CN 202310427070 A CN202310427070 A CN 202310427070A CN 116434755 A CN116434755 A CN 116434755A
Authority
CN
China
Prior art keywords
dialogue
segment
word
information
dialog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310427070.4A
Other languages
English (en)
Inventor
关根洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Interactive Solutions Corp
Original Assignee
Interactive Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interactive Solutions Corp filed Critical Interactive Solutions Corp
Publication of CN116434755A publication Critical patent/CN116434755A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种高精度的语音分析系统。语音分析系统(1)包括第1语音分析终端(3)和第2语音分析终端(5),第1语音分析终端(3)包括:第1用语分析部(7),其用于得到第1对话信息;第1对话存储部(9),其用于存储第1对话信息;第1分析部(11),其用于分析第1对话信息;演示存储部(13);相关词存储部(15);显示部(17);话题词存储部(19);对话信息接收部(25),其从第2语音分析终端(5)接收第2对话信息,第2语音分析终端(5)包括用于得到第2对话信息的第2用语分析部(21)和第2对话存储部(23),第1分析部(11)使用第1话题词与特定相关词的关系以及第2话题词与特定相关词的关系,采用第1对话片段或者第2对话片段作为正确的对话片段。

Description

语音分析系统
本申请是于2022年1月28日申请的申请号为202080054980.7、发明名称为“语音分析系统”的发明专利申请的分案申请。
技术领域
本发明涉及一种语音分析系统。
背景技术
在日本发明专利公开公报特开2002-259635号中记载了一种系统,其通过图形对象与文本的组合来显示讨论参与者在讨论的过程中进行的发言中的关键词。
在日本发明专利公开公报特开2017-224052号中记载了一种使用语音分析终端的演示评价装置。
但是,当使用1台语音分析终端来对对话进行语音识别时存在以下问题:尽管能够比较准确地对距语音分析终端近的用户的对话进行语音分析,但无法准确地对距语音分析终端远的用户的对话进行语音分析。
另一方面,在日本发明专利授权公报特许第6646184号中记载了一种检索用资料信息存储装置。
现有技术文献
专利文献
专利文献1:日本发明专利公开公报特开2002-259635号专利文献2:日本发明专利公开公报特开2017-224052号
专利文献3:日本发明专利授权公报特许第6646184号
发明内容
发明所要解决的技术问题
本说明书所记载的一方式的发明的目的在于,提供一种能够更高精度地进行语音识别的语音分析系统。
用于解决技术问题的技术方案
一方式的发明基本上基于以下见解:通过多台语音分析装置间相互利用分析出的对话信息来进行语音识别,能够更高精度地进行语音识别。
本说明书所记载的一方式的发明涉及一种语音分析系统1。
该语音分析系统1是包括第1语音分析终端3和第2语音分析终端5的系统。该终端包括计算机,以下说明的各结构要素是通过计算机来安装的结构要素。该系统还可以包括服务器。
第1语音分析终端3是包括第1用语分析部7、第1对话存储部9、第1分析部11、演示存储部13、相关词存储部15、显示部17和话题词存储部19的终端。
第1用语分析部7是用于分析对话所包含的单词,得到第1对话信息的结构要素。
第1对话存储部9是用于存储第1用语分析部7分析出的第1对话信息的结构要素。
第1分析部11是用于分析第1对话存储部9存储的第1对话信息的结构要素。
演示存储部13是用于存储多个演示资料的结构要素。
相关词存储部15是用于存储与演示存储部13中存储的各个演示资料相关联的相关词的结构要素。
显示部17是能够显示演示存储部13存储的任一演示资料的结构要素。
话题词存储部19是用于存储与对话中用语相关联的话题词的结构要素。
第2语音分析终端5是包括第2用语分析部21和第2对话存储部23的终端。
第2用语分析部21是用于分析对话所包含的单词,得到第2对话信息的结构要素。第2对话存储部23是用于存储第2用语分析部21分析出的第2对话信息的结构要素。
第1语音分析终端3还具有对话信息接收部25。
并且,对话信息接收部25是用于从第2语音分析终端5接收第2对话信息的结构要素。并且,第1对话存储部还存储对话信息接收部25接收到的第2对话信息。
第1分析部11具有特定演示信息获取部31、第1对话片段获取部33、特定相关词读取部35、第1对话中用语提取部37、第1话题词提取部39、第2对话中用语提取部41、第2话题词提取部43和对话片段采用部45。
特定演示信息获取部31是用于接收关于特定演示资料被选择的信息的结构要素,其中所述特定演示资料是多个演示资料中的某一个演示资料。
第1对话片段获取部33是用于分析第1对话信息中的对话片段,得到1个或者多个对话片段的结构要素。
特定相关词读取部35是用于从相关词存储部15读出特定相关词的结构要素,该特定相关词是与特定演示资料相关联的相关词。
第1对话中用语提取部37是用于提取第1对话中用语的结构要素,该第1对话中用语是第1对话片段所包含的由第1分析部11分析出的对话中用语,该第1对话片段是第1对话信息中的某一对话片段。
第1话题词提取部39是用于从话题词存储部19中提取第1话题词的结构要素,该第1话题词是与第1对话中用语相关联的话题词。
第2对话中用语提取部41是用于提取第2对话中用语的结构要素,该第2对话中用语是第2对话片段所包含的对话中用语,该第2对话片段是第2对话信息中的与第1对话片段对应的对话片段。
第2话题词提取部43是用于从话题词存储部19提取第2话题词的结构要素,该第2话题词是与第2对话中用语相关联的话题词。
对话片段采用部45是用于使用第1话题词与特定相关词的关系以及第2话题词与特定相关词的关系,采用第1对话片段或者第2对话片段作为正确的对话片段的结构要素。
对话片段采用部45也可以如下这样构成。即,在第1话题词和第2话题词不同的情况下,当第1话题词是特定相关词且第2话题词不是特定相关词时,对话片段采用部45采用第1对话信息中的第1对话片段作为正确的对话片段,当第1话题词不是特定相关词且第2话题词是特定相关词时,对话片段采用部45采用第2对话信息中的第2对话片段作为正确的对话片段。
对话片段采用部45也可以如下这样构成。即,对话片段采用部45比较是特定相关词的第1话题词的数量和是特定相关词的第2话题词的数量,在前者多的情况下采用第1对话片段作为正确的对话片段,在后者多的情况下采用第2对话片段作为正确的对话片段。
语音分析系统1的优选的方式为,第1语音分析终端3还具有时刻存储部51,该时刻存储部51用于存储时刻时间。
该系统为,第1对话信息包含对话所包含的单词并且包含与各单词相关联的时刻。对话片段获取部33使用各单词的时刻信息来分析对话片段。
当对话中断时,可知讲话者发生了变化,因此,当单词间有时间间隔时,可知对话片段发生了变化。
语音分析系统1的优选的方式为,第1语音分析终端3还具有频率分析部53,该频率分析部53分析对话所包含的语音的频率。
该系统为,第1对话信息包含对话所包含的单词并且包含与各单词相关联的语音的频率。
对话片段获取部33使用各单词的频率来分析对话片段。
当声音的高低发生了变化时,可知讲话者发生了变化,因此,分析各单词的声音的频率即可知道对话片段发生了变化。
语音分析系统1的优选的方式为,相关词存储部15存储的相关词包括演示者用相关词和聆听者用相关词。对话片段获取部33使用对话信息所包含的演示者用相关词和聆听者用相关词来分析对话片段。
演示者使用的演示关联用语和聆听者发言的用语不同,因此,能够使用各自的用语来分析对话片段。
语音分析系统1的优选的方式为,第1语音分析终端3还具有误转换用语存储部55,该误转换用语存储部55存储与多个演示资料中的各演示资料相关联的误转换用语。
并且,在包含与特定演示资料有关的误转换用语的情况下,从各对话片段中的没有被作为正确的对话片段采用的对话片段所包含的用语中,第1分析部11使用与正确的对话片段所包含的误转换用语对应的用语,来修正正确的对话片段所包含的用语。第1语音分析终端3和第2语音分析终端5通过相互对照信息,能够得到高精度的分析结果。
发明效果
根据本说明书所记载的一方式的发明,通过多台语音分析装置间相互利用分析出的对话信息进行语音识别,能够更高精度地进行语音识别。
附图说明
图1是表示语音分析系统的结构例的框图。
图2是表示语音分析系统的处理例的流程图。
图3是表示语音分析系统的处理例的概念图。
图4是表示语音分析系统的第2处理例的概念图。
图5是表示语音分析系统的第3处理例的概念图。
具体实施方式
下面,使用附图来说明本发明的实施方式。本发明并不限定于以下说明的方式,还包括本领域技术人员根据以下方式在显而易见的范围内适宜地修改后的方式。
本说明书所记载的一方式的发明涉及一种语音分析系统1。语音分析系统用于接收对话等语音信息作为输入信息,对接收到的语音信息进行分析,得到对话语句。语音分析系统通过计算机来安装。另外,将语音信息转换为文字信息的系统是公知的,本发明能够适宜地使用这种公知的系统的结构。该系统可以通过移动终端(移动电话等计算机终端)来安装,也可以通过计算机或服务器来安装。计算机也可以具有处理器,处理器实现各种功能。
图1是表示语音分析系统的结构例的框图。该语音分析系统1是包括第1语音分析终端3和第2语音分析终端5的系统。该终端包括计算机,以下说明的各结构要素是通过计算机来安装的结构要素。
计算机具有输入输出部、控制部、运算部和存储部,各结构要素通过总线等来连接,以能够进行信息的收发。并且,例如,控制部读出被存储在存储部中的控制程序,使用被存储在存储部中的信息或者从输入输出部输入的信息,使运算部进行各种运算。运算部计算求得的信息除了被存储在存储部中以外,还被从输入输出部输出。这样一来,进行各种运算处理。以下说明的各结构要素也可以与计算机的任一结构要素对应。
第1语音分析终端3是包括第1用语分析部7、第1对话存储部9、第1分析部11、演示存储部13、相关词存储部15、显示部17、话题词存储部19和对话信息接收部25的终端。
第1用语分析部7是用于分析对话所包含的单词,得到第1对话信息的结构要素。例如,通过麦克风向第1语音分析终端3输入语音。于是,第1语音分析终端3将对话(语音)存储在存储部中。第1用语分析部7分析对话所包含的单词,得到第1对话信息。第1对话信息是将语音修改为声音信息得到的信息。声音信息的例子为“jie xia lai dui zuo wei guan yutang niao bing de xin yao ai ke si wai zei jin xing shuo ming,gai xin yaoneng jiang di xue tang zhi ma?”。例如,可以从计算机的存储部读出被数字化的语音数据,从存储部读出程序,根据程序的指令,使运算部分析读出的语音数据。
第1对话存储部9是用于存储第1用语分析部7分析出的第1对话信息的结构要素。例如,计算机的存储部作为第1对话存储部9发挥作用。第1对话存储部9将上述的对话信息存储在存储部中。
第1分析部11是用于分析第1对话存储部9存储的第1对话信息的结构要素。第1分析部11读出被存储在存储部中的声音信息,在存储部中存储的用语中进行检索,而转换为合适的用语。此时,在有可转换用语(同音异义词)的情况下,也可以通过选择与其他用语一起使用的频度高的用语来提高转换效率。例如,“tang niao bing”被转换为“糖尿病”。并且,“xin yao”的候选转换用语有“新药”、“新耀”、“心要”、“鑫耀”。选择其中的与“糖尿病”一起出现的频度高的“新药”作为对话信息所包含的用语。于是,被存储在存储部中的声音信息被分析为“接下来对作为关于糖尿病的新药的XYZ进行说明,该新药能降低学堂只吗”这样的对话语句。然后,分析出的对话语句被存储在存储部中。
第1分析部11也可以使用与演示资料相关联地读出的相关词,提高对话信息的分析精度。例如,在有“xin yao”这一对话信息的部分且在相关词中有“新药”的情况下,可以分析该“xin yao”,选择“新药”。这样一来,能够提高分析精度。另外,也可以为,在对相关词分配了多个读法且在对话信息中包含这些读法的情况下,选择对应的相关词。例如,关于相关词“XYZ”,候选读法为“ai ke si wai zei”、“ai ke si wai zai de”、“ai ke zi waizei”和“ai ke zi wai zai de”。
演示存储部13是用于存储多个演示资料的结构要素。例如,计算机的存储部作为演示存储部发挥作用。演示资料的例子为PPT(Powerpoint:注册商标)的各页。演示资料是被存储于计算机,且能够显示于显示部来向对话对方、听众进行演示的资料。
相关词存储部15是用于存储相关词的结构要素,该相关词是与被存储在演示存储部13中的各个演示资料相关联的词。相关词可以是与作为演示资料的一个文件整体相关联的用语,也可以是与一个文件所包含的某一页相关联的用语。例如,计算机的存储部作为相关词存储机构来发挥作用。与演示资料相关联的多个相关词的例子为,在根据PPT的各页进行说明时可能会使用的用语。存储部与PPT等演示资料相关联地存储多个相关词。存储部与演示资料的信息(例如,文件ID、页码)相关联而存储与该演示资料相关联的多个相关词。相关词的例子为,“糖尿病”、“新药”、“XYZ”、“ABC”(其他治疗药物的名称)、“血糖值”、“副作用”、“血糖”、“青光眼”、“视网膜病”、“胰岛素”、“DC制药”、“附件”。该相关词例如也可以由用户输入计算机而由存储部存储。另外,该相关词也可以由计算机在关于“XYZ”等相关词的网站上自动检索,且将检索到的网站所包含的用语自动地存储在存储部中来适宜地更新关于某一演示资料的相关词。
显示部17是能够显示演示存储部13所存储的任一演示资料的结构要素。显示部17的例子为计算机的输出部,具体而言,是监视器或显示器。计算机读出关于在存储部中存储的演示资料的信息,在监视器或屏幕上显示演示资料。这样一来,能够向对话对方或听众显示演示资料。
话题词存储部19是用于存储与对话中用语相关联的话题词的结构要素。对话中用语例如是在对话中使用的用语中的成为关键词的用语。话题词存储部19是用于存储与对话中用语(关键词)相关联的话题词的机构。话题词存储部19可以通过存储部和用于从存储部读出信息的结构要素(例如控制程序)来实现。
例如,可以在话题词存储部19中,与肥胖基因、肥胖症、肥胖症实验动物等设想会在对话中使用的关键词相关联而存储肥胖这一话题词。话题词也可以是将多个关键词进一步统一得到的用语或上位概念化的用语。通过使用话题词,能够更迅速地进行检索。话题词的例子为病名、药名、有效成分名和制药企业名。即,话题词可以说是关于对话中用语的第2转换词。话题词也可以是对多种关键词分配适合用于检索的用语而得到的用语。另外,话题词也可以是关于消息的词。
第2语音分析终端5是包括第2用语分析部21和第2对话存储部23的终端。例如,第1语音分析终端3为MR等说明人所携带的笔记本电脑等,为位于进行说明的人附近且用于可靠地录制说明人的语音的装置。另一方面,第2语音分析终端5为,例如被设置在与MR相比更靠近医师的位置那样的与说明人相比更靠近听众的位置,用于更可靠地录制听说明的人的语音的装置。第2语音分析终端5的例子为麦克风、移动终端(移动电话、智能手机等)。第2语音分析终端5能够与第1语音分析终端3进行信息的收发。例如,第1语音分析终端3和第2语音分析终端5可以直接进行信息的收发,也可以通过服务器来进行信息的收发。
第2用语分析部21是用于分析对话所包含的单词,得到第2对话信息的结构要素。第2对话信息的例子为“jie xia lai dui zuo wei guan yu tang niao bing de xin yaoai ke si wai zei jin xing shuo ming,gai xin yao neng jiang di xue tang zhima?”。第2语音分析终端5将从麦克风等输入的对话存储在存储部中。然后,第2用语分析部21从存储部读出对话,参照存储在存储部中的用语,得到对话信息。第2对话信息的例子为“接下来对作为关鱼汤鸟并的新耀的XYZ进行说明,该新药是否能降低血糖值?”。
第2对话存储部23是用于存储第2用语分析部21分析出的第2对话信息的结构要素。存储部作为第2对话存储部23发挥作用。即,第2对话信息被存储在第2语音分析终端5的存储部中。被存储在第2语音分析终端5的存储部中的第2对话信息例如通过第2语音分析终端5的天线等输出部,向第1语音分析终端3发送。
于是,第1语音分析终端3接收从第2语音分析终端5发送的第2对话信息。第1语音分析终端3的对话信息接收部25是用于从第2语音分析终端5接收第2对话信息的结构要素。例如,第1语音分析终端3的天线作为对话信息接收部25来发挥作用。第2语音对话信息被通过对话信息接收部25输入第1语音分析终端3,且被存储在存储部中。此时,例如,第1对话存储部还存储对话信息接收部25接收到的第2对话信息即可。
第1分析部11包括特定演示信息获取部31、第1对话片段获取部33、特定相关词提取部35、对话片段选择部37、第1话题词提取部39、第2对话中用语提取部41、第2话题词提取部43和对话片段采用部45。
特定演示信息获取部31是用于接收关于特定演示资料被选择的信息的结构要素,该特定演示资料是多个演示资料中的某一演示资料。例如,MR选择关于作为某一种糖尿病新药的XYZ的PPT(Powerpoint:注册商标)资料。于是,该页面被选择的信息被通过计算机的输入装置输入计算机内。将输入的该信息作为关于特定演示资料被选择的信息即可。
第1对话片段获取部33是用于分析第1对话信息中的对话片段,得到1个或者多个对话片段的结构要素。第1对话片段获取部33也可以还分析第2对话信息中的对话片段,得到1个或者多个对话片段。对话片段通常是由句号(。)划分出的对话部分。对话片段也可以是一句话。另外,也可以在讲话者发生变化时变更对话片段。当然,根据对话的不同,有时不一定与书面语相同。
例如,对“jie xia lai dui zuo wei guan yu tang niao bing de xin yao aike si wai zei jin xing shuo ming,gai xin yao neng jiang di xue tang zhi ma?”进行划分得到“jie xia lai dui zuo wei guan yu tang niao bing de xin yao ai kesi wai zei jin xing shuo ming”和“gai xin yao neng jiang di xue tang zhi ma?”这2个对话片段。或者,对“接下来对作为关于糖尿病的新药的XYZ进行说明,该新药能降低学堂只吗?”进行划分得到“接下来对作为关于糖尿病的新药的XYZ进行说明。”和“该新药能降低学堂只吗?”这2个对话片段。这种对话片段的获取方法是公知的。
特定相关词读取部35是用于从相关词存储部15读出特定相关词的结构要素,该特定相关词是与特定演示资料相关联的相关词。计算机的存储部作为相关词存储部15来发挥作用。并且,特定相关词读取部35使用关于特定演示资料的信息,从作为相关词存储部15的存储部读出与特定演示资料相关联而存储的相关词作为特定相关词。特定相关词也可以是一个,也可以是多个。读出的特定相关词也可以适宜地存储在存储部中。例如计算机的运算部和存储部作为特定相关词读取部35来发挥作用。
例如,在相关词存储部15中,与关于作为某种糖尿病的新药的XYZ的PPT(Powerpoint:注册商标)资料相关联而存储有“糖尿病”、“新药”、“XYZ”、“ABC”(其他治疗药物的名称)、“血糖值”、“副作用”、“血糖”、“青光眼”、“视网膜病”、“胰岛素”、“DC制药”、“附件”。因此,特定相关词读取部35读取与作为特定演示资料的关于XYZ的PPT(Powerpoint:注册商标)资料相关联的这些用语作为特定相关词,且存储在存储部中。
第1对话中用语提取部37是用于提取第1对话中用语的结构要素,其中所述第1对话中用语是指第1对话片段所包含的由第1分析部11分析出的对话中用语,该第1对话片段是第1对话信息中的某一对话片段。对话中用语是被包含在对话中的用语。并且,被包含在第1对话信息的第1对话片段中且由第1分析部11分析出的对话中用语是第1对话中用语。第1分析部11分析出的对话中用语例如被存储在存储部中。第1对话中用语提取部37可以从被存储在存储部中的对话中用语中读出第1对话片段所包含的对话中用语,且将其存储在存储部中。这样一来,能够提取出第1对话中用语。例如计算机的运算部和存储部作为第1对话中用语提取部37来发挥作用。
例如,将“接下来对作为关于糖尿病的新药的XYZ进行说明。”、“该新药能降低学堂只吗?”中的“接下来对作为关于糖尿病的新药的XYZ进行说明。”作为第1对话片段。并且,将“该新药能降低学堂只吗?”作为紧随第1对话片段之后的对话片段。在第1对话片段中包含第1对话中用语“糖尿病”、“新药”和“XYZ”。
第1话题词提取部39是用于从话题词存储部19中提取第1话题词的结构要素,该第1话题词是与第1对话中用语相关联的话题词。在话题词存储部19中存储有与对话中用语相关联的话题词。因此,从存储部读出第1对话中用语,使用读出的第1对话中用语从话题词存储部19提取作为与第1对话中用语相关联的话题词的第1话题词即可。例如计算机的运算部和存储部作为第1话题词提取部39来发挥作用。
如上面说明的那样,第1对话中用语的例子为“糖尿病”、“新药”和“XYZ”。这些用语共同的话题词是“XYZ”。也可以根据各个对话中用语提取出多个话题词。
第2对话中用语提取部41是用于提取第2对话中用语的结构要素,该第2对话中用语是第2对话片段所包含的对话中用语,该第2对话片段是第2对话信息中的与第1对话片段对应的对话片段。例如,第1分析部11分析第2对话信息所包含的对话中用语。另外,第2语音分析终端也可以具有第2分析部,分析第2对话信息所包含的对话中用语。在该情况下,第2语音分析终端也可以向第1语音分析终端发送分析出的第2对话信息所包含的对话中用语。另外,也可以向服务器发送分析出的第2对话信息所包含的对话中用语。
第2对话片段的例子为“接下来对作为关鱼汤鸟并的新耀的XYZ进行说明”。第2对话中用语的例子为“汤鸟”、“并”、“关鱼”、“新耀”、“XYZ”。
第2话题词提取部43是用于从话题词存储部19提取第2话题词的结构要素,该第2话题词是与第2对话中用语相关联的话题词。第2话题词提取部43与第1话题词提取部39同样。
第2对话中用语的例子为“汤鸟”、“并”、“关鱼”、“新耀”、“XYZ”。与这些用语有关的话题词中较多用语共同的话题词的例子为“圣经”。
对话片段采用部45是用于使用第1话题词与特定相关词的关系以及第2话题词与特定相关词的关系,采用第1对话片段或者第2对话片段作为正确的对话片段的结构要素。可以从存储部读出第1话题词、第2话题词和特定相关词,使用运算部分析它们的关系,根据分析结果,采用第1对话片段或者第2对话片段作为正确的对话片段。例如计算机的运算部和存储部作为对话片段采用部45来发挥作用。这样,不使用对话中用语和特定相关词的关系,而是使用与对话中用语相关联的话题词和特定相关词的关系来采用正确的对话片段,因此能够客观且高精度地采用正确的对话片段。尤其是在使用对话中用语的情况下有时进行误转换,但如果使用话题词则其与特定相关词的关联更强,因此,能够更高精度地采用正确的对话片段。
例如,第1话题词为“XYZ”,第2话题词为“圣经”,特定相关词为“糖尿病”、“新药”、“XYZ”、“ABC”(其他治疗药物的名称)、“血糖值”、“副作用”、“血糖”、“青光眼”、“视网膜病”、“胰岛素”、“DC制药”、“附件”。在该情况下,第1话题词“XYZ”与特定相关词之一一致,因此,采用第1对话片段作为正确的对话片段。
另外,在第1话题词和第2话题词均为特定相关词之一的情况下,对特定相关词添加系数(等级)且将其存储在存储部中,采用具有与等级高的特定相关词一致的话题词的对话片段作为正确的对话片段。
对话片段采用部45也可以如下这样构成。即,在第1话题词与第2话题词不同的情况下,当第1话题词是特定相关词且第2话题词不是特定相关词时,对话片段采用部45采用第1对话信息中的第1对话片段作为正确的对话片段,当第1话题词不是特定相关词且第2话题词是特定相关词时,对话片段采用部45采用第2对话信息中的第2对话片段作为正确的对话片段。例如,从存储部中读出第1话题词、第2话题词和特定相关词。然后,使运算部进行第1话题词与特定相关词是否一致的处理。另外,使运算部进行第2话题词与特定相关词是否一致的处理。此时,使运算部进行第1话题词与第2话题词是否相同的运算处理。并且,当运算部判断为第1话题词是特定相关词且第2话题词不是特定相关词时,采用第1对话信息中的第1对话片段作为正确的对话片段,且将其结果存储在存储部中。另一方面,当第1话题词不是特定相关词且第2话题词是特定相关词时,采用第2对话信息中的第2对话片段作为正确的对话片段,且将其存储在存储部中。这样一来,能够采用第1对话片段或者第2对话片段作为正确的对话片段。
对话片段采用部45也可以如下这样构成。即,对话片段采用部45比较是特定相关词的第1话题词的数量和是特定相关词的第2话题词的数量,在前者多的情况下采用第1对话片段作为正确的对话片段,在后者多的情况下采用第2对话片段作为正确的对话片段。
例如,可以读出与第1对话中用语及第2对话中用语各自相关联的所有话题词,计测读出的多个话题词中与特定相关词一致的话题词的数量,采用该数量多的对话片段作为正确的对话片段。另外,也可以对特定相关词分别添加系数,在与演示资料相关联程度更高的特定相关词和话题词一致的情况下给予更高的得分,采用得分高的对话片段作为正确的对话片段。
下面,说明对话片段的获取方法的例子(实施方式)。语音分析系统1的优选方式为,第1语音分析终端3还具有时刻存储部41,该时刻存储部41用于存储时刻或时间。该系统为,第1对话信息包含对话所包含的单词并且包含与各单词相关联的时刻。对话片段获取部33使用各单词的时刻信息来分析对话片段。例如,当在语音连续一定时间之后,无声状态持续一定时间以上时,可以说对话片段发生了变化。如果单词间有时间间隔则可知对话片段发生了变化。在该情况下,例如,计算机的存储部使第1对话存储部存储第1对话信息,使时刻存储部41对应地存储关于第1对话信息的各信息的时刻。于是,例如,第1分析部11在分析第1对话信息时,能够读出各对话信息的时刻,由此求得该时间间隔。然后,读出存储在存储部中的阈值,将读出的阈值与求得的时间间隔进行比较,在时间间隔大于阈值的情况下,判断为是对话片段。另外,优选为第2语音分析终端5也具有用于存储时刻或时间的第2时刻存储部。于是,通过对照对话的时间,能够掌握第1对话信息的各片段与第2对话信息的各片段的对应关系。
语音分析系统1的优选的方式为,第1语音分析终端3还具有频率分析部43,该频率分析部43分析对话所包含的语音的频率。该系统为,第1对话信息包含对话所包含的单词并且包含与各单词相关联的语音的频率。对话片段获取部33使用各单词的频率来分析对话片段。在声音的高低发生变化时,可知讲话者发生了变化,因此,分析各单词的声音的频率可知对话片段发生了变化。在该情况下,也与对话信息所包含的各信息相关联而使存储部存储语音的频率信息,第1分析部11读出被存储在存储部中的频率信息,求出频率的变化,据此求出对话片段即可。另外,也可以为,存储部预先存储有成为对话片段的用语,在对话信息中包含成为该对话片段的用语的情况下,判断为是对话片段。成为这种对话片段的用语的例子为“啊。”、“么?”、“吗?”、“的。”、“嘛。”、“呢。”、“吧。”、“了。”、“嗯...”。
语音分析系统1的优选方式为,相关词存储部15存储的相关词包含演示者用相关词和聆听者用相关词。对话片段获取部33使用对话信息所包含的演示者用相关词和聆听者用相关词来分析对话片段。
演示者使用的演示关联用语和聆听者发言的用语不同,因此,能够使用各自的用语来分析对话片段。
相关词提取部35是用于提取关于第1对话信息及第2对话信息所包含的与特定演示资料有关的相关词的结构要素。
例如,与某一演示资料的资料名(存在位置)及其页数相关联,在存储部中存储有“糖尿病”、“新药”、“XYZ”、“ABC”(其他治疗药物的名称)、“血糖值”、“副作用”、“血糖”、“青光眼”、“视网膜病”、“胰岛素”、“DC制药”、“附件”,因此,相关词提取部35从存储部读出与这些特定演示资料有关的相关词。然后,进行第1对话信息所包含的用语和相关词是否一致的运算处理。然后,将一致的相关词与对话信息及片段编号一起存储在存储部中。
例如,第1对话信息由2个对话片段构成,在作为最初的对话片段的“接下来对作为关于糖尿病的新药的XYZ进行说明。”中存在“糖尿病”、“新药”和“XYZ”这3个相关词。另一方面,在第1对话信息的第2个对话片段中不存在相关词。关于第1对话信息的第1个对话片段,第1语音分析终端3例如存储相关词“糖尿病”、“新药”和“XYZ”以及数值3。另外,关于该对话片段,也可以仅存储数值3,还可以仅存储相关词。针对第2个对话片段或下一个第2对话信息亦同样。
在第2对话信息的最初的对话片段即“接下来对作为关鱼汤鸟并的新耀的XYZ进行说明。”中包含有“XYZ”这一相关词。另一方面,在第2对话信息的第2个对话片段即“该新药能降低血糖值吗?”中包含有“血糖值”这一相关词。
本方式的系统为,第2语音分析终端也是能够与第1语音分析终端同样地得到准确的对话片段的终端。因此,各结构要素的处理与上述的方式同样。
本说明书所记载的一方式涉及一种服务器-客户端系统。在该情况下,例如也可以使第1移动终端具有显示部17,服务器承担第1用语分析部7、第1对话存储部9、第1分析部11、演示存储部13、相关词存储部15、话题词存储部19和对话信息接收部25中的任一个或者2个以上的结构要素的功能。
本说明书所记载的一方式涉及一种程序。该程序是用于使计算机或计算机的处理器作为第1用语分析部7、第1对话存储部9、第1分析部11、演示存储部13、相关词存储部15、显示部17、话题词存储部19和对话信息接收部25来发挥作用的程序。该程序能够为用于安装上述的各方式的系统的程序。该程序也可以采用安装在移动终端中的应用程序的方式。
本说明书所记载的一方式涉及一种存储有上述的程序的计算机可读信息存储介质。信息存储介质的例子为CD-ROM、DVD、软盘、存储卡和存储条。
图2是表示语音分析系统的处理例的流程图。图3是表示语音分析系统的处理例的概念图。在2个移动终端中安装有上述的程序。一终端例如是MR的笔记本电脑,另一移动终端是智能手机,被放置在作为对方的医师附近以易于收集对方的语音。用于安装上述的程序的应用程序被安装在笔记本电脑或智能手机中。
演示资料的选择工序(S101)
MR打开被保存在笔记本电脑中或者从服务器读出的某一PPT(PowerPoint:注册商标)。于是,电脑中输入关于该PPT(PowerPoint:注册商标)被选择的信息。
演示资料的显示工序(S102)
在笔记本电脑的显示部显示用该PPT(PowerPoint:注册商标)制成的演示资料的页面。另一方面,在智能手机的显示部也显示PPT(PowerPoint:注册商标)的页面。
演示资料的相关词读取工序(S103)
另一方面,从存储部读出与用PPT(注册商标)制成的演示资料相关联的特定相关词。读出的特定相关词的例子为“糖尿病”、“新药”、“XYZ”、“ABC”(其他治疗药物的名称)、“血糖值”、“副作用”、“血糖”、“青光眼”、“视网膜病”、“胰岛素”、“DC制药”、“附件”。读出的特定相关词被适宜地暂时存储在存储部中。
基于演示资料的对话(S104)
与显示的资料相关联,MR与医师之间进行对话。对话可以是演示,也可以是说明。对话的例子为“接下来对作为关于糖尿病的新药的XYZ进行说明。”、“该新药能降低血糖值吗?”(图3)。
第1对话信息获取工序(S105)
笔记本电脑录制对话,且将其输入计算机内。然后,分析对话所包含的单词,得到第1对话信息。分析前的第1对话信息的例子为“jie xia lai dui zuo wei guan yu tangniao bing de xin yao ai ke si wai zei jin xing shuo ming,gai xin yao nengjiang di xue tang zhi ma?”。笔记本电脑被设置在MR侧,良好地收集MR的语音。对话信息被存储在存储部中。
第1对话分析工序(S106)
例如分析后的第1对话信息为“接下来对作为关于糖尿病的新药的XYZ进行说明,该新药能降低学堂只吗”这一对话语句。然后,将分析出的对话语句存储在存储部中。另外,也可以分析该第1对话信息的对话片段。在该情况下,对话片段的例子为“接下来对作为关于糖尿病的新药的XYZ进行说明。”、“该新药能降低学堂只吗?”。也可以在此后的工序中分析对话片段。
第2对话信息获取工序(S107)
智能手机中也输入对话且存储对话。然后,智能手机也通过启动的应用程序来分析对话。第2对话信息的例子为“jie xia lai dui zuo wei guan yu tang niao bing dexin yao ai ke si wai zei jin xing shuo ming,gai xin yao neng jiang di xuetang zhi ma?”。笔记本电脑和智能手机在设置的位置和收集语音的方向等方面存在差异。因此,即使分析相同的对话,笔记本电脑(第1语音分析终端)和智能手机(第2语音分析终端)间分析出的对话也出现差异。该工序通常与第1对话信息获取工序(S105)同时进行。
第2对话分析工序(S108)
在智能手机侧也分析第2对话信息。第2对话信息的例子为“接下来对作为关鱼汤鸟并的新耀的XYZ进行说明,该新药能降低血糖值吗?”。此时,也可以分析对话片段。分析对话片段得到的第2对话为“接下来对作为关鱼汤鸟并的新耀的XYZ进行说明。”、“该新药能降低血糖值吗?”。第2对话信息也被适宜地存储在存储部中。另外,第2对话信息的分析可以由笔记本电脑(第1语音分析终端)进行,也可以由服务器来进行。
第2对话信息发送工序(S109)
第2对话信息例如被从智能手机发送给笔记本电脑。于是,笔记本电脑(第1语音分析终端3)接收从智能手机(第2语音分析终端5)发送来的第2对话信息。
对话片段获取工序(S110)
也可以分析第1对话信息和第2对话信息中的对话片段,得到1个或者多个对话片段。也可以在各终端分析对话片段。另一方面,用笔记本电脑(第1语音分析终端)对2个终端录制的对话信息集中分析对话片段,能够得到第1对话信息和第2对话信息间对应的对话片段,因此是优选的。在该情况下,第1对话信息的各对话片段和第2对话信息的各对话片段的对话时间应该是大致相同的。因此,优选为使用计时机构来对应各片段。这样一来,能够对第1对话信息进行片段划分,并且还能够得到对应的第2对话片段的各对话片段。
对话片段获取部33也可以还分析第2对话信息中的对话片段,得到1个或者多个对话片段。
第1对话信息被分析为,
“接下来对作为关于糖尿病的新药的XYZ进行说明。”
“该新药能降低学堂只吗?”这一对话语句。
第2对话信息被分析为,
“接下来对作为关鱼汤鸟并的新耀的XYZ进行说明。”
“该新药能降低血糖值吗?”这一对话语句。
对话片段选择工序(S110)
提取第1对话中用语“糖尿病”、“新药”和“XYZ”,其中,所述第1对话中用语是作为第1对话片段的“接下来对作为关于糖尿病的新药的XYZ进行说明。”所包含的对话中用语。
然后,使用第1对话中用语“糖尿病”、“新药”和“XYZ”,从话题词存储部19读出与这些用语相关联而存储的话题词。另外,在此,提取作为3个对话中用语共同的话题词的“XYZ”作为第1话题词。
提取第2对话中用语“汤鸟”、“并”、“关鱼”、“新耀”和“XYZ”,其中,所述第2对话中用语是作为所述第2对话片段的“接下来对作为关鱼汤鸟并的新耀的XYZ进行说明。”所包含的对话中用语。使用第2对话中用语“汤鸟”、“并”、“关鱼”、“新耀”和“XYZ”,从话题词存储部19读出与其相关联而存储的话题词。另外,在此,提取出作为5个对话中用语中共同关联的用语最多的话题词的“圣经”,作为第2话题词。
将作为第1话题词的“XYZ”和作为特定相关词的“糖尿病”、“新药”、“XYZ”、“ABC”(其他治疗药物的名称)、“血糖值”、“副作用”、“血糖”、“青光眼”、“视网膜病”、“胰岛素”、“DC制药”以及“附件”进行比较可知,第1话题词是特定相关词。另一方面,将作为第2话题词的“圣经”和特定相关词进行比较可知,第2话题词不是特定相关词。使用该结果,采用作为第1对话片段的“接下来对作为关于糖尿病的新药的XYZ进行说明。”作为正确的对话片段。针对紧随其后的第2个对话片段也同样地判断哪一个正确。将这样采用的连续的对话片段存储在存储部中。
连续的对话片段为,“接下来对作为关于糖尿病的新药的XYZ进行说明。”“该新药能降低血糖值吗?”。
上述为处理的例子,也可以进行与上述处理不同的处理来采用正确的对话片段。
图4是表示语音分析系统的第2处理例的概念图。在该例子中,在第2语音分析终端中分析对话片段,分析对话片段得到的第2对话信息被发送给第1语音分析终端。在该例子中,为了避免对话片段不一致,优选为,与各对话片段相关联而存储时刻信息,且将各对话片段与时刻信息一起从第2语音分析终端发送给第1语音分析终端。于是,在第1语音分析终端中,能够使第1对话信息所包含的对话片段和第2对话信息所包含的对话片段一致。
图5是表示语音分析系统的与上述处理例不同的处理例的概念图。在该例子中,第2语音分析终端收集语音,将数字化的对话信息发送给第1语音分析终端,第1语音分析终端进行各种分析。另外,也可以不仅由第1语音分析终端分析正确的对话片段,还由第2语音分析终端分析正确的对话片段,但未特别地对此进行图示。
[产业上的可利用性]
该系统能够作为语音分析装置来使用。尤其是,认为Google speaker(注册商标)等语音分析装置今后会更加普及。另外,设想在智能手机、移动终端等用户身旁的终端中也会安装语音分析装置。例如,还设想在语音分析装置中会录制用户的语音以外的噪声,难以录制用户的语音的情况。另一方面,即使在这种情况下,位于用户身旁的终端也有可能适宜地录制了用户的声音。于是,由用户身旁的终端录制语音信息,与语音分析装置共享语音信息,由此能够高精度地分析语音。
附图标记说明
1:语音分析系统;3:第1语音分析终端;5:第2语音分析终端;7:第1用语分析部;9:第1对话存储部11:第1分析部;13:演示存储部;15:相关词存储部;17:显示部;19:话题词存储部;21:第2用语分析部;23:第2对话存储部;25:对话信息接收部;31:特定演示信息获取部;33:第1对话片段获取部;35:特定相关词读取部;37:第1对话中用语提取部;39:第1话题词提取部;41:第2对话中用语提取部;43:第2话题词提取部;45:对话片段采用部。

Claims (5)

1.一种语音分析方法,该语音分析方法使用包括第1语音分析终端(3)和第2语音分析终端(5)的语音分析系统,
所述第1语音分析终端(3)执行第1用语分析工序,该第1用语分析工序是指分析对话所包含的单词,得到第1对话信息;
所述第2语音分析终端(5)执行第2用语分析工序,该第2用语分析工序是指分析所述对话所包含的单词,得到第2对话信息,
所述语音分析系统执行特定演示信息获取工序、第1对话片段获取工序、特定相关词读取工序、第1对话中用语提取工序、第1话题词提取工序、第2对话中用语提取工序、第2话题词提取工序和对话片段采用工序,
在所述特定演示信息获取工序中接收关于特定演示资料被选择的信息,该特定演示资料是多个演示资料中的某一个演示资料;
在所述第1对话片段获取工序中分析第1对话信息中的对话片段,得到1个或者多个对话片段;
在所述特定相关词读取工序中读取特定相关词,该特定相关词是与所述特定演示资料相关联的相关词;
在所述第1对话中用语提取工序中提取第1对话中用语,该第1对话中用语是第1对话片段所包含的对话中用语,该第1对话片段是第1对话信息中的某一个对话片段;
在所述第1话题词提取工序中提取第1话题词,该第1话题词是与第1对话中用语相关联的话题词;
在所述第2对话中用语提取工序中提取第2对话中用语,该第2对话中用语是第2对话片段所包含的对话中用语,该第2对话片段是第2对话信息中的与第1对话片段对应的对话片段;
在所述第2话题词提取工序中提取第2话题词,该第2话题词是与第2对话中用语相关联的话题词;
在所述对话片段采用工序中使用第1话题词与所述特定相关词的关系以及第2话题词与所述特定相关词的关系,采用第1对话片段或者第2对话片段作为正确的对话片段。
2.根据权利要求1所述的语音分析方法,其特征在于,
所述对话片段采用工序为,在第1话题词和第2话题词不同的情况下,当第1话题词是所述特定相关词且第2话题词不是所述特定相关词时,采用第1对话信息中的第1对话片段作为正确的对话片段,当第1话题词不是所述特定相关词且第2话题词是所述特定相关词时,采用第2对话信息中的第2对话片段作为正确的对话片段。
3.根据权利要求1所述的语音分析方法,其特征在于,
所述对话片段采用工序为,比较第1话题词是所述特定相关词的数量和第2话题词是所述特定相关词的数量,在前者多的情况下采用第1对话片段作为正确的对话片段,在后者多的情况下采用第2对话片段作为正确的对话片段。
4.根据权利要求1所述的语音分析方法,其特征在于,
第1语音分析终端(3)具有时刻存储部(51),所述时刻存储部(51)用于存储时刻时间,
第1对话信息包含所述对话所包含的单词并且包含与各单词相关联的时刻,
第1对话片段获取工序使用各单词的时刻信息来分析对话片段。
5.根据权利要求1所述的语音分析方法,其特征在于,
第1语音分析终端(3)具有频率分析部(53),所述频率分析部(53)分析对话所包含的语音的频率,
第1对话信息包含所述对话所包含的单词并且包含与各单词相关联的语音的频率,
第1对话片段获取工序使用各单词的频率来分析对话片段。
CN202310427070.4A 2020-04-24 2020-12-15 语音分析系统 Pending CN116434755A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020077794A JP6771251B1 (ja) 2020-04-24 2020-04-24 音声解析システム
JP2020-077794 2020-04-24
PCT/JP2020/046827 WO2021215045A1 (ja) 2020-04-24 2020-12-15 音声解析システム
CN202080054980.7A CN114175148B (zh) 2020-04-24 2020-12-15 语音分析系统

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN202080054980.7A Division CN114175148B (zh) 2020-04-24 2020-12-15 语音分析系统

Publications (1)

Publication Number Publication Date
CN116434755A true CN116434755A (zh) 2023-07-14

Family

ID=72829198

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202310427070.4A Pending CN116434755A (zh) 2020-04-24 2020-12-15 语音分析系统
CN202080054980.7A Active CN114175148B (zh) 2020-04-24 2020-12-15 语音分析系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202080054980.7A Active CN114175148B (zh) 2020-04-24 2020-12-15 语音分析系统

Country Status (5)

Country Link
US (1) US11756536B2 (zh)
JP (2) JP6771251B1 (zh)
CN (2) CN116434755A (zh)
CA (1) CA3146508C (zh)
WO (1) WO2021215045A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6771251B1 (ja) * 2020-04-24 2020-10-21 株式会社インタラクティブソリューションズ 音声解析システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259269A (ja) * 1998-03-13 1999-09-24 Omron Corp 情報処理装置および方法、並びに記録媒体
JP2000148185A (ja) * 1998-11-13 2000-05-26 Matsushita Electric Ind Co Ltd 認識装置及び認識方法
JP2002259635A (ja) 2001-03-05 2002-09-13 Keio Academic Enterprise Co Ltd 認識共有化支援方法、議論構造化支援方法、状況把握支援方法、図形思考力開発支援方法、協創環境構築支援方法、質疑応答支援方法、議事録作成支援方法
JP2005010691A (ja) * 2003-06-20 2005-01-13 P To Pa:Kk 音声認識装置、音声認識方法、会話制御装置、会話制御方法及びこれらのためのプログラム
JP4890518B2 (ja) * 2008-08-29 2012-03-07 ヤフー株式会社 複数言語モデルによる統合音声認識装置
JP5731998B2 (ja) * 2012-03-21 2015-06-10 株式会社東芝 対話支援装置、対話支援方法および対話支援プログラム
US10079013B2 (en) * 2013-11-27 2018-09-18 Sri International Sharing intents to provide virtual assistance in a multi-person dialog
JP6257368B2 (ja) * 2014-02-18 2018-01-10 シャープ株式会社 情報処理装置
US9940932B2 (en) * 2016-03-02 2018-04-10 Wipro Limited System and method for speech-to-text conversion
JP6846766B2 (ja) 2016-06-13 2021-03-24 株式会社インタラクティブソリューションズ プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法
CN109792402B (zh) * 2016-07-08 2020-03-06 艾赛普公司 自动响应用户的请求
CN109643313A (zh) * 2016-08-29 2019-04-16 索尼公司 信息处理设备、信息处理方法和程序
JP6767046B2 (ja) * 2016-11-08 2020-10-14 国立研究開発法人情報通信研究機構 音声対話システム、音声対話装置、ユーザー端末、および音声対話方法
KR102318502B1 (ko) * 2017-03-20 2021-10-29 이베이 인크. 대화 중 미션 변경의 검출
SG10202111510VA (en) 2017-06-01 2021-12-30 Interactive Solutions Inc Search document information storage device
SG10202104109UA (en) * 2017-06-01 2021-06-29 Interactive Solutions Inc Display device
US11010436B1 (en) * 2018-04-20 2021-05-18 Facebook, Inc. Engaging users by personalized composing-content recommendation
JP6689421B1 (ja) * 2019-01-25 2020-04-28 株式会社インタラクティブソリューションズ 音声解析システム
US11302330B2 (en) * 2019-06-03 2022-04-12 Microsoft Technology Licensing, Llc Clarifying questions for rewriting ambiguous user utterance
US11288578B2 (en) * 2019-10-10 2022-03-29 International Business Machines Corporation Context-aware conversation thread detection for communication sessions
US11386885B2 (en) * 2020-02-17 2022-07-12 Wipro Limited Method and system for detecting intent as an ordered sequence from a user query
JP6771251B1 (ja) * 2020-04-24 2020-10-21 株式会社インタラクティブソリューションズ 音声解析システム

Also Published As

Publication number Publication date
WO2021215045A1 (ja) 2021-10-28
CA3146508A1 (en) 2021-10-28
CN114175148B (zh) 2023-05-12
JP7008992B2 (ja) 2022-01-25
US20220399011A1 (en) 2022-12-15
JP2021173872A (ja) 2021-11-01
US11756536B2 (en) 2023-09-12
JP2021173988A (ja) 2021-11-01
JP6771251B1 (ja) 2020-10-21
CN114175148A (zh) 2022-03-11
CA3146508C (en) 2022-05-17

Similar Documents

Publication Publication Date Title
US11586808B2 (en) Insertion of standard text in transcription
CN110678859B (zh) 显示装置
US11227688B2 (en) Interface for patient-provider conversation and auto-generation of note or summary
CN108766418B (zh) 语音端点识别方法、装置及设备
US11037553B2 (en) Learning-type interactive device
US8756064B2 (en) Method and system for creating frugal speech corpus using internet resources and conventional speech corpus
EP2887229A2 (en) Communication support apparatus, communication support method and computer program product
KR20140142280A (ko) 대화에서 정보를 추출하는 장치
CN110047469B (zh) 语音数据情感标注方法、装置、计算机设备及存储介质
CN114175148B (zh) 语音分析系统
US11922929B2 (en) Presentation support system
CN112397052A (zh) Vad断句测试方法、装置、计算机设备及存储介质
JP7040593B2 (ja) 接客支援装置、接客支援方法、及び、接客支援プログラム
CN111919251B (zh) 语音解析系统
US11010556B1 (en) Conversational agent
JP6347939B2 (ja) 発話内重要語抽出装置とその装置を用いた発話内重要語抽出システムと、それらの方法とプログラム
JP6781492B2 (ja) 音声解析システム
JP2024126054A (ja) 音声入力支援システム、音声入力支援方法
CN111354452A (zh) 导诊方法、系统、电子设备及计算机可读存储介质
JPH11259085A (ja) 音声認識装置及び認識結果提示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination