CN110136720B - 编辑支援装置、编辑支援方法以及程序 - Google Patents
编辑支援装置、编辑支援方法以及程序 Download PDFInfo
- Publication number
- CN110136720B CN110136720B CN201810918988.8A CN201810918988A CN110136720B CN 110136720 B CN110136720 B CN 110136720B CN 201810918988 A CN201810918988 A CN 201810918988A CN 110136720 B CN110136720 B CN 110136720B
- Authority
- CN
- China
- Prior art keywords
- word
- recognition
- weight
- speech
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 239000000284 extract Substances 0.000 claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012559 user support system Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
提供一种编辑支援装置、编辑支援方法以及程序。具体地掌握利用追加到发音词典的单词的声音识别结果的影响范围。实施方式的编辑支援装置具备抽出部、推测部、以及输出控制部。抽出部根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与所述单词关联的关联说话声音。推测部推测调整所述单词的识别难易度的权重、和在被设定所述权重的情况下推测从所述关联说话声音识别的推测识别结果。输出控制部根据设定的所述权重,控制所述推测识别结果的输出。
Description
技术领域
本发明的实施方式涉及编辑支援装置、编辑支援方法以及程序。
背景技术
以往,已知将输入的声音变换为字符串的声音识别技术。一般,在声音识别处理中,进行以下的处理(1)~(4)。(1)根据输入的声音计算声响特征量。(2)使用声响模型,将声响特征量变换为子词(音素)。(3)使用发音词典,将子词变换为单词。(4)使用语言模型,决定单词之间的联系最准确的迁移序列。
发明内容
然而,在以往的技术中,难以具体地掌握利用追加到发音词典的单词的声音识别结果的影响范围。
实施方式的编辑支援装置具备抽出部、推测部、以及输出控制部。抽出部根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与所述单词关联的关联说话声音。推测部推测调整所述单词的识别难易度的权重、和在被设定所述权重的情况下推测从所述关联说话声音识别的推测识别结果。输出控制部根据设定的所述权重,控制所述推测识别结果的输出。
根据上述编辑支援装置,能够具体地掌握利用追加到发音词典的单词的声音识别结果的影响范围。
附图说明
图1是示出第1实施方式的编辑支援装置的功能结构的例子的图。
图2A是示出第1实施方式的用户词典的例子(日语的情况)的图。
图2B是示出第1实施方式的用户词典的例子(英语的情况)的图。
图3A是示出第1实施方式的说话声音集合的例子(日语的情况)的图。
图3B是示出第1实施方式的说话声音集合的例子(英语的情况)的图。
图4A是示出第1实施方式的利用编辑距离的关联说话声音的抽出例(日语的情况)的图。
图4B是示出第1实施方式的利用编辑距离的关联说话声音的抽出例(英语的情况)的图。
图5A是示出第1实施方式的权重和推测识别结果的例子(日语的情况)的图。
图5B是示出第1实施方式的权重和推测识别结果的例子(英语的情况)的图。
图6A是示出第1实施方式的包括推测识别结果的输出信息的例子的图。
图6B是示出第1实施方式的包括推测识别结果的输出信息的例子的图。
图7是示出第1实施方式的编辑支援方法的例子的流程图。
图8是示出第2实施方式的编辑支援装置的功能结构的例子的图。
图9是示出第1实施方式的编辑支援装置的硬件结构的例子的图。
(附图标记说明)
1:存储部;2:单词取得部;3:说话取得部;4:抽出部;5:推测部;6:输出控制部;7:输出部;8:计算部;10:编辑支援装置;301:控制装置;302:主存储装置;303:辅助存储装置;304:显示装置;305:输入装置;306:通信装置;310:总线。
具体实施方式
以下,参照附图,详细说明编辑支援装置、编辑支援方法以及程序的实施方式。
(第1实施方式)
第1实施方式的编辑支援装置例如在能够编辑在声音识别中使用的词典的声音识别系统中使用。首先,说明第1实施方式的编辑支援装置的功能结构的例子。
[功能结构的例子]
图1是示出第1实施方式的编辑支援装置10的功能结构的例子的图。第1实施方式的编辑支援装置10具备存储部1、单词取得部2、说话取得部3、抽出部4、推测部5、输出控制部6以及输出部7。
存储部1存储信息。在存储部1中存储的信息是例如用户词典以及说话声音集合等。用户词典是能够由用户追加单词(追加单词)的词典(发音词典)。单词至少包括记载和读音。说话声音集合是说话数据的集合。说话数据包括至少说话声音。
图2A是示出第1实施方式的用户词典的例子(日语的情况)的图。第1实施方式的用户词典包括单词ID、记载以及读音。单词ID是识别单词的识别信息。记载是表示单词的字符、记号以及数字等。读音表示单词的发音。在图2A的例子中,例如,单词ID为“1”的单词的记载是“(RDC)”,读音是“あーるでぃーしー”。此外,也可以如图2A所示,在单词的记载中,包括表示是例如部门名以及公司名等的()以及[]等。
图2B是示出第1实施方式的用户词典的例子(英语的情况)的图。第1实施方式的用户词典包括WordID(单词ID)、Surface(记载)以及Phone(读音)。WordID是识别单词的识别信息。Surface是表示单词的字符、记号以及数字等。Phone表示单词的发音。在图2B的例子中,例如,WordID为“1”的单词的记载是“(RDC)”,读音是“aerdiisii”。
图3A是示出第1实施方式的说话声音集合的例子(日语的情况)的图。第1实施方式的说话声音集合是包括说话ID、字符串信息以及说话声音的说话数据的集合。说话ID是识别说话的识别信息。
字符串信息表示:在调整单词的识别难易度的权重被设定成初始值(既定值)的状态下,该单词被声音识别的情况下的说话声音的声音识别结果。在作为字符串信息,使用声音识别结果的情况下,有包含识别错误的情况。在声音识别结果中包含识别错误的情况下,例如通过变更表示正确的识别结果的单词的权重的设定,得到正确的声音识别结果。此外,字符串信息也可以通过人工写入说话声音来得到。
说话声音是表示说话的声音。在图3A的例子中,作为说话声音,关联了声音数据。此外,作为说话声音,也可以并非声音数据自身,而关联有识别该声音数据的识别信息。
例如,说话ID为“1”的说话数据的字符串信息是“最初に、RD Cの今年度の目標についてお話します。”,说话声音被存储为“声音数据-1”。说话ID为“1”的说话数据是正确的声音识别结果的例子。
另外,例如,说话ID为“2”的说话数据的字符串信息是“次に、RTCの来年度の目標についてです。”,说话声音被存储为“声音数据-2”。说话ID为“2”的说话数据是包含错误的声音识别结果的例子。在说话声音中被发音为“RDC”的部位被错误地声音识别为“RTC”。
另外,例如,说话ID为“3”的说话数据的字符串信息是“最後に、ある弟子の今後の予定についてお話します。”,说话声音被存储为“声音数据-3”。说话ID为“3”的说话数据是包含错误的声音识别结果的例子。在说话声音中被发音为“RDC”的部位被错误地声音识别为“ある弟子”。日语的“ある弟子”的发音与“RDC”类似,所以存在产生这样的声音识别差错的可能性。
图3B是示出第1实施方式的说话声音集合的例子(英语的情况)的图。第1实施方式的说话声音集合是包括SpID、String(字符串)以及Speech(说话声音)的说话数据的集合。SpID是识别说话的识别信息。
String表示:在调整单词的识别难易度的权重被设定成初始值(既定值)的状态下,该单词被声音识别的情况下的Speech的声音识别结果。在作为String使用声音识别结果的情况下,有包含识别错误的情况。在声音识别结果中包含识别错误的情况下,例如通过变更表示正确的识别结果的单词的权重的设定,得到正确的声音识别结果。此外,String也可以通过人工写入Speech来得到。
Speech是表示说话的声音。在图3B的例子中,作为Speech,关联有Speech data。此外,作为Speech,也可以并非Speech data自身,而关联有识别该Speech data的识别信息。
例如,SpID为“1”的说话数据的String是“First,I speak about the target inthe current year of RDC.”,Speech被存储为“Speech data-1”。SpID为“1”的说话数据是正确的声音识别结果的例子。
另外,例如,SpID为“2”的说话数据的String是“Next,it is about the targetof the next year of RTC.”,Speech被存储为“Speech data-2”。SpID为“2”的说话数据是包含错误的声音识别结果的例子。在Speech中,被发音为“RDC”的部位被错误地声音识别为“RTC”。
另外,例如,SpID为“3”的说话数据的String是“Finally,I speak about thefuture schedule of a DC”,Speech被存储为“Speech data-3”。SpID为“3”的说话数据是包含错误的声音识别结果的例子。在Speech中,被发音为“RDC”的部位被错误地声音识别为“DC”。
返回到图1,首先,单词取得部2从存储部1取得单词的记载和读音。接下来,说话取得部3从存储部1取得说话声音集合。
接下来,抽出部4根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与该单词关联的关联说话声音。关联说话声音的抽出方法可以任意。利用例如声响上的特征量以及语言上的特征量等,抽出关联说话声音。
<利用声响上的特征量的情况>
例如,抽出部4利用单词的读音,从说话声音集合抽出关联说话声音。具体而言,首先,抽出部4取得在上述说话数据中包含的字符串信息的读音。
字符串信息的读音的取得方法可以任意。例如,也可以在存储部1中,作为说话声音的声音识别结果,不仅存储字符串信息,而且还存储包括表示该字符串信息的读音的音素列的说话声音集合。然后,抽出部4也可以取得通过对在说话声音集合中包含的说话声音进行声音识别而得到的音素列,将在该音素列中包括从单词的读音变换的音素列的一部分或者全部的说话声音,作为关联说话声音抽出。
此外,抽出部4也可以通过根据在说话数据中包含的字符串信息(参照图3A)推测该字符串信息的读音,取得该字符串信息的读音。
另外,例如,在抽出部4中,如果在说话数据中包含的字符串信息的读音、和单词的读音的编辑距离是阈值以下,则抽出与该字符串信息关联起来的说话声音,作为关联说话声音。在此,说明通过编辑距离的阈值判定抽出关联说话声音的例子。
图4A是示出第1实施方式的利用编辑距离的关联说话声音的抽出例(日语的情况)的图。图4A的例子示出与用户词典(参照图2A)的单词ID为“1”的单词“(RDC)”关联的关联说话声音的抽出例。图4A的说话ID与识别在说话声音集合(参照图3A)中存储的说话数据的说话ID对应。读音表示在说话数据中包含的字符串信息的读音。
编辑距离在说话数据中包含的字符串信息的读音中包括与用户词典的单词的读音类似的类似部位的情况下,表示对该类似部位的读音进行几个字符的编辑时与该单词的读音一致。另外,编辑距离在说话数据中包含的字符串信息的读音中不包括与用户词典的单词的读音类似的类似部位的情况下,表示该字符串信息的长度(字符数)。
例如,在说话ID为“1”的读音中包含的类似部位101a与单词“(RDC)”的读音一致,所以编辑距离成为“0”。另外,例如,在说话ID为“2”的读音中包含的类似部位102a与单词“(RDC)”的读音相异1个字符,所以编辑距离成为“1”。另外,例如,在说话ID为“3”的读音中包含的类似部位103a与单词“(RDC)”的读音相异4个字符,所以编辑距离成为“4”。更具体而言,在类似部位103a的情况下,相比于单词“(RDC)”的读音,4个字符量的读音不足,所以编辑距离成为“4”。
在说话ID为“4”的说话数据中包含的字符串信息的读音不包括与单词“(RDC)”的读音类似的类似部位,所以编辑距离成为该字符串的字符数“26”。同样地,在说话ID为“5”的说话数据中包含的字符串信息的读音不包括与单词“(RDC)”的读音类似的类似部位,所以编辑距离成为该字符串的字符数“28”。
在图4A的例子中,在例如编辑距离的阈值是5的情况下,作为单词“(RDC)”的关联说话声音,通过抽出部4抽出说话ID为“1”~“3”的说话声音。
<利用语言上的特征量的情况>
另外,例如,抽出部4将通过对在说话声音集合中包含的说话声音进行声音识别而得到的声音识别结果中包括单词的记载的一部分或者全部的说话声音,作为关联说话声音抽出。在第1实施方式中,通过对说话声音进行声音识别而得到的声音识别结果是上述图3A的字符串信息。例如,抽出部4在单词ID为“2”的“[总务]”的情况下,在说话ID为“4”的字符串信息中包括“总务”,所以将说话ID为“4”的说话声音作为关联说话声音抽出。
此外,也可以与利用上述声响上的特征量的情况同样地,抽出部4在与说话数据关联起来的字符串信息中包含的记载、和单词的记载的编辑距离是阈值以下的情况下,将与该字符串信息关联起来的说话声音作为关联说话声音抽出。
另外,抽出部4也可以计算基于上述声响上的特征量(单词的读音等)、和上述语言上的特征量(单词的记载等)这两方的关联度,根据该关联度抽出关联说话声音。关于关联度,使用例如基于上述单词的读音的编辑距离、以及基于上述单词的记载的编辑距离,用以下的式(1)的关联度R定义。在该情况下,抽出部4将关联度R是预先设定的阈值以上的说话声音作为关联说话声音抽出即可。
关联度R=α×R_phone+β×R_surface…(1)
在此,R_phone设为基于声响上的特征量(单词的读音等)的关联度,R_surface设为基于语言上的特征量(单词的记载等)的关联度,分别用以下的式(2)以及(3)定义。
R_phone=1/(2×基于声响上的特征量的编辑距离)…(2)
R_surface=1/(2×基于语言上的特征量的编辑距离)…(3)
例如,在基于声响上的特征量的编辑距离是1的情况下,R_phone=1/2。另外,例如,在基于语言上的特征量的编辑距离是2的情况下,R_surface=1/4。但是,在基于声响上的特征量的编辑距离是0的情况下,将R_phone设为1,同样地,在基于语言上的特征量的编辑距离是0的情况下,将R_surface设为1。
在此,上述式(1)的α、β是表示针对关联度R,分别对声响上的特征量和语言上的特征量造成何种程度的影响的值(0以上)。例如,在上述图3A的字符串信息是人工写入的字符串的情况下,相比于读音,记载正确的可能性更高,所以以相比于声响上的特征量,语言上的特征量向关联度R的影响更大的方式,设定α和β(α<β)。另一方面,在上述图3A的字符串信息是声音识别结果的情况下,相比于记载,读音(音素列)正确的可能性更高,所以以相比于语言上的特征量,声响上的特征量向关联度的影响更大的方式,设定α和β(α>β)。
图4B是示出第1实施方式的利用编辑距离(Edit distance)的关联说话声音的抽出例(英语的情况)的图。图4B的例子示出与用户词典(参照图2B)的WordID为“1”的单词“(RDC)”关联的关联说话声音的抽出例。图4B的SpID与识别在说话声音集合(参照图3B)中存储的说话数据的SpID对应。读音表示在说话数据中包含的String的读音。
Edit distance在说话数据中包含的String的读音中包括与用户词典的单词的读音类似的类似部位的情况下,表示对该类似部位的读音进行几个字符的编辑时与该单词的读音一致。另外,Edit distance在说话数据中包含的String的读音中未包括与用户词典的单词的读音类似的类似部位的情况下,表示该String的长度(字符数)。
例如,在SpID为“1”的读音中包含的类似部位101b与单词“(RDC)”的读音一致,所以Edit distance成为“0”。另外,例如,在SpID为“2”的读音中包含的类似部位102b与单词“(RDC)”的读音相异1个字符,所以Edit distance成为“1”。另外,例如,在SpID为“3”的读音中包含的类似部位103与单词“(RDC)”的读音相异3个字符,所以Edit distance成为“3”。更具体而言,在类似部位103b的情况下,相比于单词“(RDC)”的读音,3个字符量的读音不足,所以Edit distance成为“3”。
在SpID为“4”的说话数据中包含的String的读音不包括与单词“(RDC)”的读音类似的类似部位,所以Edit distance成为该字符串的字符数“50”。同样地,在SpID为“5”的说话数据中包含的String的读音不包括与单词“(RDC)”的读音类似的类似部位,所以Editdistance成为该字符串的字符数“48”。
在图4B的例子中,在例如Edit distance的阈值是5的情况下,作为单词“(RDC)”的关联说话声音,通过抽出部4,抽出SpID为“1”~“3”的说话声音。
<利用语言上的特征量的情况>
另外,例如,抽出部4将通过对在说话声音集合中包含的说话声音进行声音识别而得到的声音识别结果中包括单词的记载的一部分或者全部的说话声音,作为关联说话声音抽出。在第1实施方式中,通过对说话声音进行声音识别而得到的声音识别结果是上述图3B的String。例如,抽出部4在WordID为“2”的“[Admin Div.]”的情况下,由于在SpID为“4”的String中包括“[Admin Div.]”的Phone(参照图2B),所以将SpID为“4”的说话声音作为关联说话声音抽出。
此外,也可以与上述利用声响上的特征量的情况同样地,抽出部4在与说话数据关联起来的String中包含的记载、和单词的记载的Edit distance是阈值以下的情况下,将与该String关联起来的说话声音作为关联说话声音抽出。
返回到图1,推测部5推测调整单词的识别难易度的权重、和在被设定该权重的情况下推测从关联说话声音识别的推测识别结果。权重表示例如越大,越易于识别单词。
图5A是示出第1实施方式的权重和推测识别结果的例子(日语的情况)的图。图5A的例子是单词ID为“1”的单词“(RDC)”的推测识别结果的例子。说话ID为“1”的说话声音在权重的设定为“1”的情况下,表示单词“(RDC)”包含于推测识别结果。说话ID为“2”的说话声音在权重的设定为“2”的情况下,表示单词“(RDC)”包含于推测识别结果。说话ID为“3”的说话声音在权重的设定为“5”的情况下,表示单词“(RDC)”包含于推测识别结果。
图5B是示出第1实施方式的权重(Weight)和推测识别结果(ASR(AutomaticSpeech Recognition)Result)的例子(英语的情况)的图。图5B的例子是WordID为“1”的单词“(RDC)”的ASR Result的例子。SpID为“1”的说话声音在Weight的设定为“1”的情况下,表示单词“(RDC)”包含于ASR Result。SpID为“2”的说话声音在Weight的设定为“2”的情况下,表示单词“(RDC)”包含于ASR Result。SpID为“3”的说话声音在Weight的设定为“5”的情况下,表示单词“(RDC)”包含于ASR Result。
说明推测部5的具体的处理。在此,作为推测用于得到推测识别结果的权重的方法,说明利用声音识别处理的推测方法。首先,推测部5取得由抽出部4从说话声音集合抽出的关联说话声音。接下来,推测部5通过将权重设定为规定的初始值来进行关联说话声音的声音识别处理,取得声音识别结果。
接下来,推测部5判定在取得的声音识别结果中,是否包括识别对象的单词。推测部5在包括识别对象的单词的情况下,将声音识别结果作为推测识别结果,如上述图5A,与单词ID、说话ID以及权重一起存储。推测部5在未包括识别对象的单词的情况下,增加权重,再次进行声音识别处理,判定在声音识别结果中是否包括识别对象的单词。推测部5直至在声音识别结果中包括识别对象的单词、或者权重成为预先决定的范围外,反复进行声音识别处理。
此外,权重的初始值可任意。权重的初始值也可以是例如与推测识别结果关联起来而已经存储的权重的平均。通过将在推测识别结果中包括识别对象的单词的情况下的权重的平均设定为初始值,能够更高效地进行关联说话声音的声音识别处理。
另外,在声音识别结果中未包括识别对象的情况下的权重的增加量可任意。权重的增加量也可以根据例如单词的读音、和在说话声音的读音中包含的类似部位的编辑距离决定。推测部5也可以例如编辑距离越大,越增加权重的增加量。
返回到图1,输出控制部6根据由用户设定(指定)的权重,控制推测识别结果的输出。输出部7输出由输出控制部6输出的推测识别结果。输出部7由例如液晶显示器等来实现。
图6A是示出第1实施方式的包括推测识别结果的输出信息110a的例子的图。图6A的例子示出作为识别对象,选择单词“(RDC)”,权重的设定为“1”的情况。输出信息110a包括单词显示区域111、权重设定接口112以及关联说话显示区域113。关联说话显示区域113通过分隔线114,被分隔为上部的显示区域和下部的显示区域。
在单词显示区域111中,显示在用户词典(参照图2A)中存储的单词的记载、读音以及权重。权重显示当前对单词设定的设定值。
权重设定接口112是设定(指定)权重的接口。在图6A的例子中,权重设定接口112是能够在1~10的范围中设定权重的滑动条,通过该滑动条将权重设定为“1”。
此外,也可以与通过权重设定接口112设定权重连动地,变更在单词显示区域111中显示的权重的设定(实际的设定值)。另外,关于在单词显示区域111中显示的权重的设定(实际的设定值),也可以不与通过权重设定接口112设定权重连动,而用户用其他手段进行设定。
在比分隔线114更上部的显示区域中,显示包括单词“(RDC)”的推测识别结果。在图6A的例子中,通过权重设定接口112设定的权重为“1”,所以说话ID为“1”的说话声音的推测识别结果显示于分隔线114的上部的显示区域。
另一方面,在比分隔线114更下部的显示区域中,显示不包括单词“(RDC)”的推测识别结果。在图6A的例子中,通过权重设定接口112设定的权重为“1”,所以说话ID为“2”以及“3”的说话声音的推测识别结果显示于分隔线114的下部的显示区域。
此外,在作为利用权重设定接口112的权重设定的用户支援,以设定的权重进行了声音识别的情况下,也可以将显示包括识别对象的单词的推测识别结果的显示件数的区域设置到输出信息110a。
根据在单词显示区域111中选择出的单词、和在权重设定接口112中设定(指定)的权重,变更在关联说话显示区域113中显示的信息。例如,通过将利用权重设定接口112的权重设定设定为“2”以上,在关联说话显示区域113中显示的类似部位115a被显示为单词“(RDC)”(参照图6B)。
图6B是示出第1实施方式的包括推测识别结果的输出信息110b的例子的图。图6B的例子示出作为识别对象,选择单词“(RDC)”,权重的设定为“2”的情况。输出信息110b包括单词显示区域111、权重设定接口112以及关联说话显示区域113。关联说话显示区域113通过分隔线114,被分隔为上部的显示区域和下部的显示区域。
单词显示区域111的说明与图6A相同,因此省略。
权重设定接口112是设定权重的接口。在图6B的例子中,权重设定接口112是能够在1~10的范围内设定权重的滑动条,通过该滑动条将权重设定为“2”。
在比分隔线114更上部的显示区域中,显示包括单词“(RDC)”的推测识别结果。在图6B的例子中,通过权重设定接口112设定的权重为“2”,所以说话ID为“1”以及“2”的说话声音的推测识别结果显示于分隔线114的上部的显示区域。特别,说话ID为“2”的说话声音的类似部位115a(参照图6A)被变更为识别为单词“(RDC)”的部位115b。另外,说话ID为“2”的说话声音的推测识别结果的显示位置从分隔线114的下部的显示区域被变更为上部的显示区域。
另一方面,在比分隔线114更下部的显示区域中,显示不包括单词“(RDC)”的推测识别结果。在图6B的例子中,通过权重设定接口112设定的权重为“2”,所以说话ID为“3”的说话声音的推测识别结果显示于分隔线114的下部的显示区域。
此外,在图6B的例子中,还示出在作为利用权重设定接口112的权重设定的用户支援,以设定的权重进行了声音识别时,显示包括识别对象的单词的推测识别结果的显示件数的情况下的例子。在图6B的例子中,在权重设定接口112的下部,设置有显示包括识别对象的单词的推测识别结果的显示件数的区域。在图6B的例子中,示出在例如单词“(RDC)”的权重被设定为5的情况下,包括单词“(RDC)”的推测识别结果的显示件数是20件。
在此,说明能够进行上述图6A的输出信息110a、以及上述图6B的输出信息110b的输出控制的输出控制部6的具体的动作例。输出控制部6在由用户选择单词显示区域111的单词,并用权重设定接口112设定权重时,进行以下的处理。
首先,输出控制部6取得调整由用户选择的单词的识别难易度的权重、在被设定该权重的情况下推测从关联说话声音识别的推测识别结果、以及作为该推测识别结果的识别源数据的说话声音的说话ID的组(参照图5A)。接下来,输出控制部6比较由用户设定的权重、和与取得的推测识别结果关联起来的权重。
输出控制部6在由用户设定的权重是与取得的推测识别结果关联起来的权重以上的情况下,作为包括由用户选择的单词的推测识别结果(第1推测识别结果),将该推测识别结果(参照图5A)显示于关联说话显示区域113的比分隔线114更上部的显示区域。
另一方面,输出控制部6在由用户设定的权重小于与取得的推测识别结果关联起来的权重的情况下,作为不包括由用户选择的单词的推测识别结果(第2推测识别结果),将与取得的说话ID关联起来的字符串信息(参照图3A)显示于关联说话显示区域113的比分隔线114更下部的显示区域。
接下来,参照流程图,说明第1实施方式的编辑支援方法的例子。
[编辑支援方法]
图7是示出第1实施方式的编辑支援方法的例子的流程图。首先,单词取得部2从存储部1取得单词的记载和读音(步骤S1)。接下来,说话取得部3从存储部1取得说话声音集合(步骤S2)。
接下来,抽出部4根据通过步骤S1的处理取得的单词的记载以及读音的至少一方,从通过步骤S2的处理取得的说话声音集合抽出与该单词关联的关联说话声音(步骤S3)。
接下来,推测部5推测调整单词的识别难易度的权重、和在被设定该权重的情况下推测从关联说话声音识别的推测识别结果(步骤S4)。
接下来,输出控制部6根据由用户设定(指定)的权重,控制推测识别结果的输出(步骤S5)。
如以上说明,在第1实施方式的编辑支援装置10中,抽出部4根据追加到在声音识别中使用的词典(在第1实施方式中是用户词典)的单词的读音以及记载的至少一方,从说话声音集合抽出与该单词关联的关联说话声音。推测部5推测调整单词的识别难易度的权重、和在被设定该权重的情况下推测从关联说话声音识别的推测识别结果。然后,输出控制部6根据被设定的权重,控制推测识别结果的输出。
由此,根据第1实施方式的编辑支援装置10,能够具体地掌握追加到词典的单词所起到的声音识别结果的影响范围。例如,追加到词典的单词还有对声音识别的结果造成恶劣影响的可能性,但根据第1实施方式的编辑支援装置10,能够在改变调整单词的识别难易度的权重的同时,具体地掌握追加到词典的单词对声音识别的结果造成的影响。由此,例如用户能够高效地编辑用户词典,在声音识别时能够低成本地取得用户期望的识别结果。
(第2实施方式)
接下来,说明第2实施方式。在第2实施方式的说明中,省略与第1实施方式同样的说明,说明与第1实施方式不同的部位。
[功能结构的例子]
图8是示出第2实施方式的编辑支援装置10-2的功能结构的例子的图。第2实施方式的编辑支援装置10-2具备存储部1、单词取得部2、说话取得部3、抽出部4、推测部5、输出控制部6-2、输出部7以及计算部8。即,第2实施方式的编辑支援装置10-2是在第1实施方式的编辑支援装置10的结构中还追加有计算部8。另外,在第2实施方式的编辑支援装置10-2中,输出控制部6-2的动作从第1实施方式的动作进行了变更。
计算部8根据已经由用户设定(决定)的单词的权重,计算尚未由用户设定权重的单词的权重的推荐值。具体而言,首先,计算部8通过下述式(4),计算基于用户的识别容许值。
(识别容许值)=(包括识别对象的单词的声音识别结果的数量)/(识别对象的单词的关联说话声音的数量)…(4)
在此,说明识别容许值的具体例。例如,单词ID为“1”的单词“(RDC)”的关联说话声音的数量是3个(参照图4A)。此时,在由用户将单词“(RDC)”的权重设定为例如“2”时,包括单词“(RDC)”的声音识别结果(第1推测识别结果)的数量成为2个(参照图5A以及6B)。因此,单词“(RDC)”的识别容许值(第1识别容许值)成为2/3。
接下来,计算部8计算作为已经设定了权重的单词(第1单词)的识别容许值的平均值的平均识别容许值。然后,计算部8根据平均识别容许值,计算尚未由用户设定权重的单词(第2单词)的权重的推荐值。具体而言,计算部8根据尚未设定权重的单词的识别容许值(第2识别容许值)成为平均识别容许值以上的权重,计算该单词的权重的推荐值。
输出控制部6-2将在例如上述单词显示区域111中包括由计算部8计算出的推荐值的输出信息110a(110b)输出到输出部7。此外,输出信息110a(110b)也可以包括将由计算部8计算出的推荐值一并地设定为尚未设定权重的单词的权重的按钮等用户接口等。
如以上说明,在第2实施方式的编辑支援装置10-2中,输出控制部6-2将由计算部8计算出的推荐值输出到输出部7。由此,根据第2实施方式的编辑支援装置10-2,能够得到与第1实施方式同样的效果,并且用户能够更高效地设定追加到在声音识别中使用的词典的单词的权重。即,根据第2实施方式的编辑支援装置10-2,用户能够比以往更容易(更低成本)地得到期望的声音识别结果。
最后,说明第1实施方式的编辑支援装置10的硬件结构的例子。此外,第2实施方式的编辑支援装置10-2的硬件结构的例子的说明也与第1实施方式的编辑支援装置10的硬件结构的说明相同。
[硬件结构的例子]
图9是示出第1实施方式的编辑支援装置10的硬件结构的例子的图。第1实施方式的编辑支援装置10具备控制装置301、主存储装置302、辅助存储装置303、显示装置304、输入装置305以及通信装置306。控制装置301、主存储装置302、辅助存储装置303、显示装置304、输入装置305以及通信装置306经由总线310连接。
控制装置301执行从辅助存储装置303读出到主存储装置302的程序。控制装置301是例如CPU等1个以上的处理器。主存储装置302是ROM(Read Only Memory,只读存储器)、以及RAM(Random Access Memory,随机存取存储器)等存储器。辅助存储装置303是存储卡、以及HDD(Hard Disk Drive,硬盘驱动器)等。
显示装置304显示信息。显示装置304是例如液晶显示器。上述输出部7通过例如显示装置304实现。输入装置305受理信息的输入。输入装置305是例如键盘以及鼠标等。此外,显示装置304以及输入装置305也可以是兼具显示功能和输入功能的液晶触摸面板等。通信装置306与其他装置进行通信。
将由第1实施方式的编辑支援装置10执行的程序,以可安装的形式或者可执行的形式的文件,存储到CD-ROM、存储卡、CD-R、以及DVD(Digital Versatile Disk,数字多功能盘)等可由计算机读取的存储介质,作为计算机程序产品提供。
另外,也可以构成为通过将由第1实施方式的编辑支援装置10执行的程序储存到与因特网等网络连接的计算机上,并经由网络下载来提供。另外,也可以构成为不下载而经由因特网等网络提供第1实施方式的编辑支援装置10执行的程序。
另外,也可以构成为将由第1实施方式的编辑支援装置10执行的程序预先嵌入到ROM等来提供。
由第1实施方式的编辑支援装置10执行的程序成为第1实施方式的编辑支援装置10的功能结构中的、包括能够通过程序实现的功能的模块结构。
关于通过程序实现的功能,通过控制装置301从辅助存储装置303等存储介质读出并执行程序,将利用程序实现的功能装载到主存储装置302。即,在主存储装置302上生成利用程序实现的功能。
此外,也可以通过IC(Integrated Circuit,集成电路)等硬件,实现第1实施方式的编辑支援装置10的功能的一部分。IC是执行例如专用的处理的处理器。
另外,在使用多个处理器实现各功能的情况下,各处理器既可以实现各功能中的1个,也可以实现各功能中的2个以上。
另外,第1实施方式的编辑支援装置10的动作方式可任意。也可以使第1实施方式的编辑支援装置10作为例如网络上的云系统动作。
虽然说明了本发明的几个实施方式,但这些实施方式仅为例示,未意图限定发明的范围。这些新的实施方式能够以其他各种方式实施,能够在不脱离发明的要旨的范围内,进行各种省略、置换、变更。这些实施方式、其变形包含于发明的范围、要旨,并且包含于与权利要求书记载的发明和其均等的范围。
此外,能够将上述实施方式总结为以下的技术方案。
技术方案1.一种编辑支援装置,具备:
抽出部,根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与所述单词关联的关联说话声音;
推测部,推测调整所述单词的识别难易度的权重、和在被设定所述权重的情况下推测出从所述关联说话声音识别的推测识别结果;以及
输出控制部,根据被设定的所述权重,控制所述推测识别结果的输出。
技术方案2.根据技术方案1所述的编辑支援装置,其中,
所述抽出部取得通过对在所述说话声音集合中包含的说话声音进行声音识别而得到的音素列,抽出在所述音素列中包括从所述单词的读音变换的音素列的一部分或者全部的说话声音,作为关联说话声音。
技术方案3.根据技术方案1所述的编辑支援装置,其中,
所述抽出部抽出通过对在所述说话声音集合中包含的说话声音进行声音识别而得到的声音识别结果中包括所述单词的记载的一部分或者全部的说话声音,作为关联说话声音。
技术方案4.根据技术方案1所述的编辑支援装置,其中,
所述输出控制部通过将区分包括所述单词的第1推测识别结果、和不包括所述单词的第2推测识别结果的输出信息输出到输出部,控制所述推测识别结果的输出。
技术方案5.根据技术方案4所述的编辑支援装置,其中,
还具备计算部,该计算部根据已经由用户设定的第1单词的权重,计算尚未由用户设定权重的第2单词的权重的推荐值,
所述输出控制部还控制所述推荐值的输出。
技术方案6.根据技术方案5所述的编辑支援装置,其中,
所述计算部关于所述第1单词,计算将所述第1推测识别结果的数量除以所述关联说话声音的数量而得到的第1识别容许值,计算所述第2单词的第2识别容许值成为所述第1识别容许值的平均值以上的权重,作为所述第2单词的权重的推荐值。
技术方案7.一种编辑支援方法,包括:
根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与所述单词关联的关联说话声音的步骤;
推测调整所述单词的识别难易度的权重、和在被设定所述权重的情况下推测出从所述关联说话声音识别的推测识别结果的步骤;以及
根据被设定的所述权重,控制所述推测识别结果的输出的步骤。
技术方案8.一种存储介质,存储有用于使计算机作为如下部件发挥功能的程序:
抽出部,根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与所述单词关联的关联说话声音;
推测部,推测调整所述单词的识别难易度的权重、和在被设定所述权重的情况下推测出从所述关联说话声音识别的推测识别结果;以及
输出控制部,根据被设定的所述权重,控制所述推测识别结果的输出。
Claims (8)
1.一种编辑支援装置,具备:
抽出部,根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与所述单词关联的关联说话声音;
推测部,推测调整所述单词的识别难易度的权重、和在被设定所述权重的情况下推测出从所述关联说话声音识别的推测识别结果;以及
输出控制部,根据被设定的所述权重,控制所述推测识别结果的输出。
2.根据权利要求1所述的编辑支援装置,其中,
所述抽出部取得通过对在所述说话声音集合中包含的说话声音进行声音识别而得到的音素列,抽出在所述音素列中包括从所述单词的读音变换的音素列的一部分或者全部的说话声音,作为关联说话声音。
3.根据权利要求1所述的编辑支援装置,其中,
所述抽出部抽出通过对在所述说话声音集合中包含的说话声音进行声音识别而得到的声音识别结果中包括所述单词的记载的一部分或者全部的说话声音,作为关联说话声音。
4.根据权利要求1所述的编辑支援装置,其中,
所述输出控制部通过将区分包括所述单词的第1推测识别结果、和不包括所述单词的第2推测识别结果的输出信息输出到输出部,控制所述推测识别结果的输出。
5.根据权利要求4所述的编辑支援装置,其中,
还具备计算部,该计算部根据已经由用户设定的第1单词的权重,计算尚未由用户设定权重的第2单词的权重的推荐值,
所述输出控制部还控制所述推荐值的输出。
6.根据权利要求5所述的编辑支援装置,其中,
所述计算部关于所述第1单词,计算将所述第1推测识别结果的数量除以所述关联说话声音的数量而得到的第1识别容许值,计算所述第2单词的第2识别容许值成为所述第1识别容许值的平均值以上的权重,作为所述第2单词的权重的推荐值。
7.一种编辑支援方法,包括:
根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与所述单词关联的关联说话声音的步骤;
推测调整所述单词的识别难易度的权重、和在被设定所述权重的情况下推测出从所述关联说话声音识别的推测识别结果的步骤;以及
根据被设定的所述权重,控制所述推测识别结果的输出的步骤。
8.一种存储介质,存储有用于使计算机作为如下部件发挥功能的程序:
抽出部,根据追加到在声音识别中使用的词典的单词的读音及记载的至少一方,从说话声音集合抽出与所述单词关联的关联说话声音;
推测部,推测调整所述单词的识别难易度的权重、和在被设定所述权重的情况下推测出从所述关联说话声音识别的推测识别结果;以及
输出控制部,根据被设定的所述权重,控制所述推测识别结果的输出。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018018642A JP6790003B2 (ja) | 2018-02-05 | 2018-02-05 | 編集支援装置、編集支援方法及びプログラム |
JP2018-018642 | 2018-02-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110136720A CN110136720A (zh) | 2019-08-16 |
CN110136720B true CN110136720B (zh) | 2022-10-04 |
Family
ID=67568258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810918988.8A Active CN110136720B (zh) | 2018-02-05 | 2018-08-14 | 编辑支援装置、编辑支援方法以及程序 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6790003B2 (zh) |
CN (1) | CN110136720B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101432801A (zh) * | 2006-02-23 | 2009-05-13 | 日本电气株式会社 | 语音识别词典制作支持系统、语音识别词典制作支持方法以及语音识别词典制作支持用程序 |
JP2011107251A (ja) * | 2009-11-13 | 2011-06-02 | Ntt Docomo Inc | 音声認識装置、言語モデル生成装置および音声認識方法 |
JP2011170087A (ja) * | 2010-02-18 | 2011-09-01 | Fujitsu Ltd | 音声認識装置 |
CN103177721A (zh) * | 2011-12-26 | 2013-06-26 | 中国电信股份有限公司 | 语音识别方法和系统 |
JP2014052427A (ja) * | 2012-09-05 | 2014-03-20 | Nec Corp | 辞書更新装置、音声認識システム、辞書更新方法、音声認識方法、および、コンピュータ・プログラム |
CN104750677A (zh) * | 2013-12-25 | 2015-07-01 | 株式会社东芝 | 语音传译装置、语音传译方法及语音传译程序 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4056711B2 (ja) * | 2001-03-19 | 2008-03-05 | 日産自動車株式会社 | 音声認識装置 |
JP5694102B2 (ja) * | 2011-09-22 | 2015-04-01 | 株式会社東芝 | 音声認識装置、音声認識方法およびプログラム |
JP5546565B2 (ja) * | 2012-02-22 | 2014-07-09 | 日本電信電話株式会社 | 単語追加装置、単語追加方法、およびプログラム |
JP5713963B2 (ja) * | 2012-06-18 | 2015-05-07 | 日本電信電話株式会社 | 音声認識単語追加装置とその方法とプログラム |
JP6327848B2 (ja) * | 2013-12-20 | 2018-05-23 | 株式会社東芝 | コミュニケーション支援装置、コミュニケーション支援方法およびプログラム |
JP6453631B2 (ja) * | 2014-11-28 | 2019-01-16 | 株式会社東芝 | 認識システム、認識方法およびプログラム |
-
2018
- 2018-02-05 JP JP2018018642A patent/JP6790003B2/ja active Active
- 2018-08-14 CN CN201810918988.8A patent/CN110136720B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101432801A (zh) * | 2006-02-23 | 2009-05-13 | 日本电气株式会社 | 语音识别词典制作支持系统、语音识别词典制作支持方法以及语音识别词典制作支持用程序 |
JP2011107251A (ja) * | 2009-11-13 | 2011-06-02 | Ntt Docomo Inc | 音声認識装置、言語モデル生成装置および音声認識方法 |
JP2011170087A (ja) * | 2010-02-18 | 2011-09-01 | Fujitsu Ltd | 音声認識装置 |
CN103177721A (zh) * | 2011-12-26 | 2013-06-26 | 中国电信股份有限公司 | 语音识别方法和系统 |
JP2014052427A (ja) * | 2012-09-05 | 2014-03-20 | Nec Corp | 辞書更新装置、音声認識システム、辞書更新方法、音声認識方法、および、コンピュータ・プログラム |
CN104750677A (zh) * | 2013-12-25 | 2015-07-01 | 株式会社东芝 | 语音传译装置、语音传译方法及语音传译程序 |
Also Published As
Publication number | Publication date |
---|---|
CN110136720A (zh) | 2019-08-16 |
JP2019135529A (ja) | 2019-08-15 |
JP6790003B2 (ja) | 2020-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3232289B2 (ja) | 記号挿入装置およびその方法 | |
US7962341B2 (en) | Method and apparatus for labelling speech | |
US6212498B1 (en) | Enrollment in speech recognition | |
US8577679B2 (en) | Symbol insertion apparatus and symbol insertion method | |
EP1422692A2 (en) | Automatic insertion of non-verbalized punctuation in speech recognition | |
JP2012037619A (ja) | 話者適応化装置、話者適応化方法および話者適応化用プログラム | |
JP2008233229A (ja) | 音声認識システム、および、音声認識プログラム | |
US20180047387A1 (en) | System and method for generating accurate speech transcription from natural speech audio signals | |
JP2008046538A (ja) | テキスト音声合成を支援するシステム | |
US8566091B2 (en) | Speech recognition system | |
US6345249B1 (en) | Automatic analysis of a speech dictated document | |
JP6690484B2 (ja) | 音声認識用コンピュータプログラム、音声認識装置及び音声認識方法 | |
JP5451982B2 (ja) | 支援装置、プログラムおよび支援方法 | |
US20180012602A1 (en) | System and methods for pronunciation analysis-based speaker verification | |
US20170270923A1 (en) | Voice processing device and voice processing method | |
JP4354299B2 (ja) | 事例検索プログラム、事例検索方法及び事例検索装置 | |
JP4859125B2 (ja) | 発音評定装置、およびプログラム | |
JP2007233149A (ja) | 音声認識装置及び音声認識プログラム | |
CN110136720B (zh) | 编辑支援装置、编辑支援方法以及程序 | |
JP6436806B2 (ja) | 音声合成用データ作成方法、及び音声合成用データ作成装置 | |
JP4296290B2 (ja) | 音声認識装置、音声認識方法及びプログラム | |
JP5196114B2 (ja) | 音声認識装置およびプログラム | |
JP2008026721A (ja) | 音声認識装置、音声認識方法、および音声認識用プログラム | |
JP2003271183A (ja) | 音声認識辞書作成装置および音声認識辞書作成方法、音声認識装置、携帯端末器、音声認識システム、音声認識辞書作成プログラム、並びに、プログラム記録媒体 | |
JP2003345388A (ja) | 音声認識装置、音声認識方法、および、音声認識プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |