CN105556594A - 声音识别处理装置、声音识别处理方法以及显示装置 - Google Patents

声音识别处理装置、声音识别处理方法以及显示装置 Download PDF

Info

Publication number
CN105556594A
CN105556594A CN201480051019.7A CN201480051019A CN105556594A CN 105556594 A CN105556594 A CN 105556594A CN 201480051019 A CN201480051019 A CN 201480051019A CN 105556594 A CN105556594 A CN 105556594A
Authority
CN
China
Prior art keywords
information
voice recognition
speech
vocabulary
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480051019.7A
Other languages
English (en)
Other versions
CN105556594B (zh
Inventor
小沼知浩
小金井智弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN105556594A publication Critical patent/CN105556594A/zh
Application granted granted Critical
Publication of CN105556594B publication Critical patent/CN105556594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L2025/783Detection of presence or absence of voice signals based on threshold decision
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Signal Processing (AREA)

Abstract

本发明提供一种声音识别处理装置、声音识别处理方法以及显示装置,提升声音操作的操作性。为此,在声音识别处理装置(100)中,声音获取部(101)构成为获取用户发出的声音并输出声音信息。声音识别部(102)构成为将声音信息变换为第1信息。存储部(170)预先存储了登记有排斥词汇的词典。识别结果判定部(104)比较第1信息和排斥词汇,在第1信息中包含与排斥词汇一致的词语时,将第1信息判定为应废弃的信息,在第1信息中不含与排斥词汇一致的词语时,将第1信息判定为应执行的信息。

Description

声音识别处理装置、声音识别处理方法以及显示装置
技术领域
本公开涉及识别用户发出的声音来进行动作的声音识别处理装置、声音识别处理方法以及显示装置。
背景技术
专利文献1公开了具有声音识别功能的声音输入装置。该声音输入装置构成为:接收用户发出的声音,对接收到的声音进行解析,由此来识别(声音识别)用户的声音所表示的命令,并根据声音识别出的命令来控制设备。即,专利文献1的声音输入装置能够对用户任意发出的声音进行声音识别,并根据作为该声音识别出的结果的命令(指令)来控制设备。
例如,使用该声音输入装置的用户在利用电视接收机(以下记为“电视机”)、PC(PersonalComputer;个人计算机)等对浏览器进行操作时,能够利用该声音输入装置的声音识别功能来进行显示在浏览器上的超文本的选择。此外,用户也能够利用该声音识别功能来进行在提供搜索服务的网站(搜索站点)上的搜索。
此外,在该声音输入装置中,为了提高用户的便利性,有时会进行“无触发识别”。所谓“无触发识别”,是指在声音输入装置中,对于受理用于声音识别的声音输入的期间不设限制,始终进行声音的集音和针对集音到的声音的声音识别这一状态。然而,若在该声音输入装置中进行无触发识别,则难以区分集音到的声音是用户以声音识别为目的而发出的声音,还是用户彼此的对话、用户的自言自语等不以声音识别为目的的声音,因此有时会错误地对不以声音识别为目的的声音进行声音识别(误识别)。
在先技术文献
专利文献
专利文献1:日本专利第4812941号公报
发明内容
本公开提供降低误识别、提升用户的操作性的声音识别处理装置以及声音识别处理方法。
本公开中的声音识别处理装置具备:声音获取部、第1声音识别部、存储部和识别结果判定部。声音获取部构成为获取用户发出的声音并输出声音信息。第1声音识别部构成为将声音信息变换为第1信息。存储部预先存储了登记有排斥词汇的词典。识别结果判定部比较第1信息和排斥词汇,判定在第1信息中是否包含与排斥词汇一致的词语。并且,在第1信息中包含与排斥词汇一致的词语时,识别结果判定部将第1信息判定为应废弃的信息,在第1信息中不含与排斥词汇一致的词语时,识别结果判定部将第1信息判定为应执行的信息。
本公开中的声音识别处理方法包括:获取用户发出的声音并变换为声音信息的步骤;将声音信息变换为第1信息的步骤;将声音信息变换为第2信息的步骤;选择第1信息和第2信息的任意一方的步骤;比较选择出的信息和词典中所登记的排斥词汇,判定在选择出的信息中是否包含与排斥词汇一致的词语的步骤;在选择出的信息中包含与排斥词汇一致的词语时,将选择出的信息判定为应废弃的信息的步骤;和在选择出的信息中不含与排斥词汇一致的词语时,将选择出的信息判定为应执行的信息的步骤。
本公开中的显示装置具备:声音获取部、第1声音识别部、存储部、识别结果判定部、处理部和显示部。声音获取部构成为获取用户发出的声音并输出声音信息。第1声音识别部构成为将声音信息变换为第1信息。存储部预先存储了登记有排斥词汇的词典。识别结果判定部比较第1信息和排斥词汇,判定在第1信息中是否包含与排斥词汇一致的词语,并基于该判定来判定应废弃还是应执行第1信息。处理部构成为执行基于在识别结果判定部中判定为应执行的第1信息的处理。并且,在第1信息中包含与排斥词汇一致的词语时,识别结果判定部将第1信息判定为应废弃的信息,在第1信息中不含与排斥词汇一致的词语时,识别结果判定部将第1信息判定为应执行的信息。
本公开中的声音识别处理装置能提升用户进行声音操作时的操作性。
附图说明
图1是示意性地表示实施方式1中的声音识别处理系统的图。
图2是表示实施方式1中的声音识别处理系统的一构成例的框图。
图3是表示实施方式1中的声音识别处理装置的识别结果判定部的一构成例的框图。
图4是表示实施方式1中的声音识别处理装置的一动作例的流程图。
图5是表示实施方式2中的声音识别处理系统的一构成例的框图。
图6是表示实施方式2中的声音识别处理装置的识别结果判定部的一构成例的框图。
图7是表示实施方式2中的识别结果判定部的一动作例的流程图。
图8A是表示其他实施方式中的识别结果判定部的一构成例的框图。
图8B是表示其他实施方式中的识别结果判定部的一构成例的框图。
具体实施方式
以下,适当参照附图来详细地说明实施方式。不过,有时也会根据需要来省略详细说明。例如,有时将省略已经熟知的事项的详细说明、针对实质上为相同构成的重复说明。其原因在于,为了避免下面的说明变得不必要的冗长,使本领域技术人员易于理解。
另外,为了使本领域技术人员充分地理解本公开而提供了附图以及下述说明,并非意图通过这些内容来限定请求保护的范围所记载的主题。
(实施方式1)
以下,利用图1~图4来说明实施方式1。另外,在本实施方式中,作为具备声音识别处理装置的显示装置的一例而列举了电视接收机(电视机)10,但显示装置并不限定于电视机10。例如,也可以为PC、平板终端、便携式终端等。
此外,虽然假设本实施方式所示的声音识别处理系统11进行无触发识别,但本公开并不限定于无触发识别,也能够应用于通过基于用户700的声音识别的开始操作来开始声音识别的系统。
[1-1.构成]
图1是示意性地表示实施方式1中的声音识别处理系统11的图。在本实施方式中,在作为显示装置的一例的电视机10中内置有声音识别处理装置。
本实施方式中的声音识别处理系统11具备:作为显示装置的一例的电视机10、和声音识别服务器50。
若电视机10中启动了声音识别处理装置,则在电视机10的显示部140中,与基于输入影像信号、接收到的广播信号等的影像一起显示声音识别图标203、和表示集音到的声音的音量的指示器202。这是为了向用户700示出处于能够实现基于用户700的声音的电视机10的操作(以下记为“声音操作”)的状态,并且促使用户700发言。
若用户700朝向电视机10所具备的内置话筒130发出声音,则该声音被内置话筒130集音,集音到的声音被电视机10所内置的声音识别处理装置声音识别。在电视机10中,根据该声音识别的结果来进行电视机10的控制。
电视机10也能采用如下构成,即,具备构成为用户700发出的声音被内置的话筒集音并被无线发送至电视机10的遥控器或者便携式终端。
此外,电视机10经由网络40而与声音识别服务器50连接。并且,能够在电视机10与声音识别服务器50之间进行通信。
图2是表示实施方式1中的声音识别处理系统11的一构成例的框图。
电视机10具备:声音识别处理装置100、显示部140、收发部150、调谐器160、存储部171和内置话筒130。
声音识别处理装置100构成为获取用户700发出的声音并对获取到的声音进行解析。并且,构成为识别该声音所表示的指示并根据识别出的结果来进行电视机10的控制。声音识别处理装置100的具体构成将后述。
内置话筒130是构成为主要对来自与显示部140的显示面对置的方向的声音进行集音的话筒。即,内置话筒130将集音方向设定为能够对与电视机10的显示部140面对的用户700发出的声音进行集音,从而能够集音用户700发出的声音。内置话筒130可以设置在电视机10的框体内,也可以如图1中示出的一例那样设置在电视机10的框体外。
显示部140例如为液晶显示器,但也可以为等离子显示器、或者有机EL(ElectroLuminescence;电致发光)显示器等。显示部140由显示控制部(未图示)来控制,显示基于来自外部的输入影像信号、由调谐器160接收到的广播信号等的图像。
收发部150与网络40连接,构成为通过网络40而与网络40所连接的外部设备(例如声音识别服务器50)进行通信。
调谐器160构成为经由天线(未图示)来接收地面广播、卫星广播的电视广播信号。调谐器160也可以构成为接收经由专用线缆而发送的电视广播信号。
存储部171例如为非易失性的半导体存储器,但也可以为易失性的半导体存储器、或者硬盘等。存储部171存储电视机10的各部分的控制中所利用的信息(数据)、程序等。
网络40例如为因特网,但也可以为其他网络。
声音识别服务器50为“第2声音识别部”的一例。声音识别服务器50是经由网络40而与电视机10连接的服务器(云上的词典服务器)。声音识别服务器50构成为具备识别词典55,接收从电视机10经由网络40而发送来的声音信息。识别词典55是用于将声音信息和声音识别模型建立对应的数据库。并且,声音识别服务器50比对接收到的声音信息和识别词典55的声音识别模型,确认在接收到的声音信息中是否包含与识别词典55所登记的声音识别模型对应的声音信息。并且,若在接收到的声音信息中包含与识别词典55所登记的声音识别模型对应的声音信息,则选择该声音识别模型所表示的字符串。如此,将接收到的声音信息变换为字符串。另外,该字符串既可以为多个字符也可以为一个字符。并且,声音识别服务器50将表示变换后的字符串的字符串信息作为声音识别的结果经由网络40发送至电视机10。该字符串信息为“第2信息”的一例。
声音识别处理装置100具有:声音获取部101、声音识别部102、识别结果获取部103、识别结果判定部104、指令处理部106和存储部170。
存储部170例如为非易失性的半导体存储器,能够任意地实现数据的写入与读出。存储部170也可以为易失性的半导体存储器、或者硬盘等。存储部170还存储被声音识别部102、识别结果判定部104参照的信息(例如识别词典175)等。识别词典175为“词典”的一例。识别词典175为用于将声音信息和声音识别模型建立对应的数据库。此外,在识别词典175中还登记有排斥对象列表。排斥对象列表的详细将后述。另外,存储部170和存储部171也可以构成为一体。
声音获取部101获取基于用户700发出的声音的声音信号并变换为声音信息,输出至声音识别部102。
声音识别部102为“第1声音识别部”的一例。声音识别部102将声音信息变换为字符串信息,并将该字符串信息作为声音识别的结果而输出至识别结果获取部103。该字符串信息为“第1信息”的一例。此外,声音识别部102将从声音获取部101获取到的声音信息自收发部150经由网络40发送至声音识别服务器50。
声音识别服务器50参照识别词典55,对从电视机10接收到的声音信息进行声音识别,并将该声音识别的结果返回给电视机10。
识别结果获取部103为“选择部”的一例。识别结果获取部103若接收到从声音识别部102输出的声音识别的结果(第1信息)和从声音识别服务器50返回的声音识别的结果(第2信息),则比较两者,选择任意一方。然后,识别结果获取部103将选择出的一方输出给识别结果判定部104。
识别结果判定部104针对从识别结果获取部103输出的声音识别的结果,进行应废弃还是应执行(受理)的判定。该详细将后述。然后,基于该判定,将声音识别的结果输出至指令处理部106或者声音获取部201。
指令处理部106基于来自识别结果判定部104的输出(判定为应执行的声音识别的结果),进行指令处理(例如电视机10的控制等)。指令处理部106为“处理部”的一例,该指令处理为“处理”的一例。
图3是表示实施方式1中的声音识别处理装置100的识别结果判定部104的一构成例的框图。
识别结果判定部104具备排斥词汇废弃部1042和受理废弃发送部1045。它们的动作的详细将后述。
[1-2.动作]
下面,说明本实施方式中的电视机10的声音识别处理装置100的动作。
图3是表示实施方式1中的声音识别处理装置100的一动作例的流程图。
声音获取部101从电视机10的内置话筒130获取基于用户700发出的声音的声音信号(步骤S101)。
声音获取部101也可以从遥控器(未图示)内置的话筒、或者便携式终端(未图示)内置的话筒经由无线通信部(未图示)来获取声音信号。
然后,声音获取部101将该声音信号变换为能够在后级的各种处理中利用的声音信息,输出至声音识别部102。另外,若声音信号为数字信号,则声音获取部101也可以将该声音信号直接用作声音信息。
声音识别部102将从声音获取部101获取到的声音信息变换为字符串信息。然后,将该字符串信息作为声音识别的结果而输出至识别结果获取部103。此外,声音识别服务器50将从电视机10经由网络40获取到的声音信息变换为字符串信息,并将该字符串信息作为声音识别的结果而返回给电视机10(步骤S102)。
具体而言,声音识别部102基于从声音获取部101获取到的声音信息,参照预先存储于存储部170的识别词典175内的受理对象列表。然后,比较该声音信息和受理对象列表所登记的声音识别模型。
所谓声音识别模型,是指用于将声音信息和字符串信息建立对应的信息。在进行声音识别之际,比较多个声音识别模型的每一个模型和声音信息,选择与声音信息一致或者类似的一个声音识别模型。并且,与该声音识别模型建立了对应的字符串信息成为针对该声音信息的声音识别的结果。在受理对象列表中例如登记有:针对电视机10的指示(例如频道变更、音量变更等)、电视机10的功能(例如网络连接功能等)、电视机10的各部分的名称(例如电源、频道等)、针对电视机10的画面上显示的内容的指示(例如放大、缩小、滚动等)等与电视机10的操作关联的声音识别模型。
另外,在存储于存储部170的识别词典175中,除了登记有受理对象列表之外,还登记有后述的排斥对象列表(图2中未示出)。
声音识别部102比对声音信息和受理对象列表所登记的声音识别模型。并且,若在从声音获取部101获取到的声音信息中包含与受理对象列表所登记的声音识别模型对应的字符串信息,则将与该声音识别模型建立了对应的字符串信息作为声音识别的结果而输出至识别结果获取部103。
声音识别部102在比对声音信息和声音识别模型时,计算识别得分。所谓识别得分,是指表示似然性(likelihood)的数值,是表示声音信息与该声音识别模型以何种程度一致或者类似的指标,数值越大则类似度越高。声音识别部102比对声音信息和声音识别模型,将多个声音识别模型作为候选来选择。此时,声音识别部102针对各个声音识别模型来计算识别得分。另外,该识别得分的计算方法也可以为一般公知的方法。并且,选择在预先设定的阈值以上且最高的识别得分的声音识别模型,将与该声音识别模型对应的字符串信息作为声音识别的结果来输出。另外,声音识别部102也可以将该字符串信息关联的识别得分与该字符串信息一起输出至识别结果获取部103。
如此,声音识别部102将声音信息变换为字符串信息。另外,声音识别部102也可以将声音信息变换为字符串信息以外的信息来输出。此外,若不存在阈值以上的识别得分的声音识别模型,则声音识别部102也可以输出表示不能实现声音识别的信息。
此外,声音识别部102将从声音获取部101获取到的声音信息自收发部150经由网络40发送至声音识别服务器50。
声音识别服务器50基于从电视机10接收到的声音信息,参照识别词典55。然后,将该声音信息与识别词典55内的声音识别模型进行比对,变换为字符串信息。
声音识别服务器50在将接收到的声音信息与识别词典55内的声音识别模型进行比较时,计算识别得分。该识别得分是表示与由声音识别部102计算的识别得分同样的似然性的数值,以与由声音识别部102计算识别得分时同样的方法来计算。声音识别服务器50与声音识别部102同样,基于接收到的声音信息,将多个声音识别模型作为候选来选择,并基于识别得分,从该候选之中选择一个声音识别模型。然后,声音识别服务器50将与该声音识别模型建立了对应的字符串信息作为声音识别的结果而返回给电视机10。声音识别服务器50也可以将该字符串信息关联的识别得分与该字符串信息一起发送至电视机10。
声音识别服务器50构成为:能够通过网络40来收集各种各样的用语,并将这些用语登记在识别词典55中。因而,声音识别服务器50能够具备比电视机10所具备的识别词典175更多的声音识别模型。因此,在声音识别服务器50中,在用户700发出了与电视机10的功能、对电视机10作出的指示无关的词语(例如用户彼此的对话、自言自语等)时,针对该声音的声音识别的识别得分有可能比电视机10的声音识别部102进行同样的声音识别时更高。
从声音识别服务器50经由网络40接收到声音识别的结果的收发部150,将该声音识别的结果输出至识别结果获取部103。
如果从声音识别部102和声音识别服务器50分别接收到声音识别的结果,则识别结果获取部103按照判别规则来选择其中一方的声音识别结果(步骤S103)。
该判别规则例如可以是如下规则:相互比较从声音识别部102接收到的声音识别的结果中附带的识别得分、和从声音识别服务器50接收到的声音识别的结果中附带的识别得分,选择识别得分高的一方的声音识别结果。识别结果获取部103将选择出的声音识别结果输出给识别结果判定部104。
另外,识别结果获取部103在只能从声音识别部102和声音识别服务器50的任意一方接收声音识别的结果时,也可以跳过步骤S103的处理,将接收到的声音识别的结果直接输出。
图3所示的识别结果判定部104的排斥词汇废弃部1042判定在从识别结果获取部103输出的声音识别的结果中是否存在与排斥对象列表所登记的词汇(排斥词汇)一致的词汇(步骤S104)。
所谓排斥对象列表,是指将判断为不用于电视机10的声音操作的词语(词汇)作为排斥词汇进行登记的列表。排斥词汇例如为将在存储部170的识别词典175中作为受理对象列表被登记的词汇除外的词汇。该排斥对象列表预先登记于存储部170的识别词典175,但也可以构成为能够任意追加新的排斥词汇。另外,若将发音与在对电视机10进行声音操作时用户700所发出的词语相似、且与电视机10的声音操作无关的词汇作为排斥词汇而登记于排斥对象列表,则能够提升声音识别的精度。
在步骤S104中,排斥词汇废弃部1042比对存储部170所存储的识别词典175内的排斥对象列表、和从识别结果获取部103输出的作为声音识别的结果的字符串信息,调查有无与排斥对象列表所含的排斥词汇一致的字符串信息。并且,排斥词汇废弃部1042将与排斥词汇一致的字符串信息判定为应废弃的信息,赋予标记并输出至受理废弃发送部1045(是)。
若从排斥词汇废弃部1042输入的字符串信息被赋予了标记,则受理废弃发送部1045将该字符串信息作为废弃信息而输出给声音获取部101。接收到废弃信息的声音获取部101为了下次的声音识别而进行声音获取的准备(步骤S106)。因此,指令处理部106针对赋予了标记的字符串信息(废弃信息)不进行任何处理。
在步骤S104中,排斥词汇废弃部1042将与排斥词汇不一致的字符串信息判定为是应受理(执行)的信息,不赋予标记地输出至受理废弃发送部1045(否)。
若从排斥词汇废弃部1042输入的字符串信息未被赋予标记,则受理废弃发送部1045将该字符串信息输出给指令处理部106。指令处理部106基于从受理废弃发送部1045接收到的字符串信息所表示的指示来执行指令处理(步骤S105)。
例如,若在字符串信息中包含频道变更、音量变更等与电视机10的控制相关的指令信息,则指令处理部106对电视机10的控制部(未图示)作出指示,以使电视机10执行与该指令信息对应的动作。
在步骤S105结束后,指令处理部106向声音获取部101发送表示指令处理已结束的信号。接收到该信号的声音获取部101为了下次的声音识别而进行声音获取的准备(步骤S106)。
[1-3.效果等]
如以上,在本实施方式中,声音识别处理装置100具备;声音获取部101、作为第1声音识别部的一例的声音识别部102、存储部170和识别结果判定部104。声音获取部101构成为获取用户700发出的声音并输出声音信息。声音识别部102构成为将声音信息变换为作为第1信息的一例的字符串信息。存储部170预先存储了登记有排斥词汇的识别词典175。识别词典175为词典的一例。识别结果判定部104比较字符串信息和排斥词汇,判定在字符串信息中是否包含与排斥词汇一致的词语。并且,识别结果判定部104在字符串信息中包含与排斥词汇一致的词语时,将字符串信息判定为应废弃的信息,在字符串信息中不含与排斥词汇一致的词语时,将字符串信息判定为应执行的信息。
此外,声音识别处理装置100也可以还具备:作为第2声音识别部的一例的声音识别服务器50、和作为选择部的一例的识别结果获取部103。在该情况下,声音识别服务器50构成为将声音信息变换为作为第2信息的一例的字符串信息。识别结果获取部103构成为选择声音识别部102所输出的字符串信息和声音识别服务器50所输出的字符串信息的任意一方并输出。并且,识别结果判定部104针对在识别结果获取部103中选择出的一方的字符串信息,进行应废弃还是应执行的判定。
作为第2声音识别部的一例的声音识别服务器50也可以设置在网络40上。声音识别处理装置100也可以具备:收发部150,其构成为经由网络40而与声音识别服务器50进行通信。
在如此构成的声音识别处理装置100中,能够精度良好地判别用户700为了进行声音操作而发出的声音、和用户700彼此的对话、自言自语的声音,降低误识别,从而提升声音识别的精度。
例如,假设用户700发出的是发音与在对电视机10进行声音操作时所发出的词语相似、且与电视机10的声音操作无关的词语。此时,声音识别部102作为基于该声音的声音识别的结果而输出受理对象列表所登记的字符串信息(即进行误识别)的可能性高。
另一方面,在具有认为通过网络40来更新登记内容从而登记比识别词典175更多的声音识别模型(词汇)的识别词典55的声音识别服务器50中,针对这种声音而进行更正确的声音识别的可能性高。
因此,与声音识别部102对易于被误识别的声音进行误识别而输出的字符串信息所附带的识别得分相比,声音识别服务器50对该声音进行声音识别而输出的字符串信息所附带的识别得分的数值更大,认为从声音识别服务器50输出的字符串信息被识别结果获取部103选择的可能性高。
并且,若与该字符串信息对应的词汇作为排斥词汇而登记于识别词典175内的排斥对象列表,则在排斥词汇废弃部1042中将该字符串信息判断为应废弃的信息。
如此,根据本实施方式,能够提高针对被声音识别部102错误地声音识别的声音的声音识别的精度,防止指令处理部106进行因误识别而引起的错误的指令处理。
此外,用户700发言的声音不是十分大或者噪音多等时,声音识别部102发生误识别的可能性也高,但在此情况下,也能够提高声音识别的精度。
另外,若声音识别部102所具有的识别词典175与声音识别服务器50的识别词典55同样构成为能够通过网络40等来更新登记内容,则也可以将声音识别处理系统11构成为仅利用电视机10来实施声音识别。即便是这种构成,通过识别结果判定部104的动作,也能够降低误识别来提高声音识别的精度。
(实施方式2)
下面,利用图5~图7来说明实施方式2。在实施方式2中,说明提高针对用户700发出的可能性高的词语(例如与电视机10的动作、功能等相关的词语)的声音识别的精度的方法。
[2-1.构成]
图5是表示实施方式2中的声音识别处理系统21的一构成例的框图。
本实施方式中的声音识别处理系统21具备:作为显示装置的一例的电视机20和声音识别服务器50。该声音识别服务器50与实施方式1中所说明的声音识别服务器50实质上相同,因此省略说明。
电视机20具有:声音识别处理装置200、显示部140、收发部150、调谐器160、存储部171和内置话筒130。声音识别处理装置200具有:声音获取部201、声音识别部102、识别结果获取部103、识别结果判定部204、指令处理部106和存储部270。
另外,关于与实施方式1中所说明的电视机10具备的构成要素进行实质上相同的动作的构成要素,赋予与实施方式1相同的符号,并省略说明。
此外,在存储部270内的识别词典175中,假设登记与实施方式1中所说明的受理对象列表以及排斥对象列表同样的受理对象列表以及排斥对象列表。
实施方式2中的声音识别处理装置200与实施方式1中所说明的声音识别处理装置100,在声音获取部201以及识别结果判定部204中的动作上存在差异。
声音获取部201与实施方式1中所说明的声音获取部101同样,从内置话筒130获取基于用户700发出的声音的声音信号。不过,声音获取部201不同于实施方式1所示的声音获取部101,基于获取到的声音信号来创建发言时间长度信息和发言方式信息。
所谓发言时间长度信息,是表示用户700发言的时间的长度的信息。声音获取部201例如对预先设定的阈值以上的音量的声音连续发生的时间的长度进行测定,从而能够创建发言时间长度信息。声音获取部201也可以通过其他的方法来创建发言时间长度信息。
所谓发言方式信息,是表示在用户700的发言的前后所产生的无声音或者视作实质上无声音的时间的长度的信息。声音获取部201例如将音量低于预先设定的阈值的状态设为无声音,对在发言的前后所产生的无声音期间的长度进行测定,从而能够创建发言方式信息。声音获取部201也可以通过其他的方法来创建发言方式信息。
声音获取部201对声音信息分别附加发言时间长度信息和发言方式信息,并输出至声音识别部102。
在多个用户700彼此的对话、用户700的自言自语等中有时会包含受理对象列表所登记的词汇(受理对象词汇)。并且,有时该声音会被内置话筒130集音从而基于该声音的声音信息被输入至声音识别部102。在这种情况下,声音识别部102进行基于该声音信息的错误的声音识别,尽管用户700不打算对电视机20进行声音操作,却有可能在指令处理部106中进行基于误识别的错误的指令处理。在本实施方式中,为了降低这种误识别的发生,进行除了利用实施方式1中所说明的排斥对象列表之外还利用“发言时间长度信息”和“发言方式信息”的声音识别。
发言时间长度信息和发言方式信息的详细将后述。此外,声音识别部102将附加了发言时间长度信息和发言方式信息的声音信息经由收发部150以及网络40而发送至声音识别服务器50。
[2-2.动作]
下面,利用图6和图7来说明本实施方式中的电视机20的声音识别处理装置200所具有的识别结果判定部204的构成以及动作。
图6是表示实施方式2中的声音识别处理装置200的识别结果判定部204的一构成例的框图。
识别结果判定部204具备:排斥词汇废弃部1042、发言时间长度判定部2043、发言方式判定部2044和受理废弃发送部1045。
图7是表示实施方式2中的识别结果判定部204的一动作例的流程图。
识别结果获取部103与实施方式1中所说明的步骤S103同样,若从声音识别部102和声音识别服务器50分别接收到声音识别的结果,则按照判别规则来选择其中一方的声音识别结果(步骤S103)。该判别规则与实施方式1中所说明的判别规则实质上相同。
识别结果判定部204的排斥词汇废弃部1042与实施方式1中所说明的步骤S104同样,判定在从识别结果获取部103输出的声音识别的结果中是否存在与排斥对象列表所登记的词汇(排斥词汇)一致的词汇(步骤S104)。
在步骤S104中,排斥词汇废弃部1042与实施方式1中所说明的排斥词汇废弃部1042同样,比对存储部270所存储的识别词典175内的排斥对象列表、和从识别结果获取部103输出的作为声音识别的结果的字符串信息,调查有无与排斥对象列表所含的排斥词汇一致的字符串信息。并且,排斥词汇废弃部1042将与排斥词汇一致的字符串信息判定为是应废弃的信息,赋予标记并输出给受理废弃发送部1045(是)。
受理废弃发送部1045与实施方式1中所说明的受理废弃发送部1045同样,将赋予了标记的字符串信息作为废弃信息而输出给声音获取部201。接收到废弃信息的声音获取部201为了下次的声音识别而进行声音获取的准备(步骤S106)。
另一方面,在步骤S104中,排斥词汇废弃部1042对于与排斥词汇不一致的字符串信息,不赋予标记地直接输出给发言时间长度判定部2043(否)。
发言时间长度判定部2043针对从排斥词汇废弃部1042输入的未被赋予标记的字符串信息,基于发言时间长度来再次进行应废弃还是应受理(执行)的判定(步骤S200)。
在此,说明发言时间长度判定部2043所使用的“发言时间长度”。所谓发言时间长度,是指发言的时间的长度。在此,将用户700为了对电视机20进行声音操作而进行的发言记为“控制用发言”,将不以电视机20的声音操作为目的的发言(用户700彼此的对话、用户700的自言自语等)记为“对话用发言”。
在本实施方式中,识别词典175所登记的受理对象列表包含的受理对象词汇各自对应的发言时间长度数据(表示发言所需的时间的长度的数据)被预先存储在存储部270中。由此,发言时间长度判定部2043能够计算被选择为声音识别的结果的受理对象词汇的发言时间长度。另外,期望在该发言时间长度数据中加入发言速度的个人差异等而具有变动范围(range)。
已确认“控制用发言”由1个单词或2个单词程度构成的情形较多。此外,这些单词(词汇)全部是受理对象列表所登记的受理对象词汇的可能性高。因此,如果对“控制用发言”进行声音识别,则基于被选择为声音识别的结果的受理对象词汇的发言时间长度数据的发言时间长度,与由声音获取部201创建的发言时间长度信息所表示的“控制用发言”的发言时间长度近似的可能性高。另外,在作为声音识别的结果而选择出多个受理对象词汇时,假设基于与这些多个受理对象词汇对应的发言时间长度数据来计算发言时间长度。
另一方面,“对话用发言”由多个单词构成的情形较多,此外在这些单词(词汇)中包含与受理对象列表所登记的受理对象词汇对应的单词(词汇)的可能性低。因此,如果对“对话用发言”进行声音识别,则基于被选择为声音识别的结果的受理对象词汇的发言时间长度数据的发言时间长度,比由声音获取部201创建的发言时间长度信息所表示的“对话用发言”的发言时间长度要短的可能性高。
鉴于这些内容,在声音识别处理装置200中,通过比对基于由声音识别部102选择为声音识别的结果的受理对象词汇的发言时间长度数据的发言时间长度、和基于由声音获取部201创建的发言时间长度信息的发言时间长度,从而能够判定成为声音识别的对象的声音是基于“控制用发言”的声音还是基于“对话用发言”的声音。并且,在本实施方式2中,由发言时间长度判定部2043来进行该判定。
在步骤S200中,发言时间长度判定部2043基于作为声音识别的结果从识别结果获取部103输出的受理对象词汇,从存储部270中读出与该受理对象词汇建立了关联的发言时间长度数据。若接收到的受理对象词汇为多个,则发言时间长度判定部2043从存储部270中读出与这些受理对象词汇全部相关的发言时间长度数据。然后,基于读出的发言时间长度数据来计算发言时间长度。然后,比较该计算结果和由声音获取部201创建的发言时间长度信息所表示的发言时间长度。另外,发言时间长度判定部2043可以直接比较计算出的发言时间长度和发言时间长度信息所表示的发言时间长度,也可以基于计算出的发言时间长度来设定用于判定的范围。在此,说明设定范围来进行比较的例子。
在步骤S200中,若由声音获取部201创建的发言时间长度信息所表示的发言时间长度在基于计算出的发言时间长度而设定的范围外(否),则发言时间长度判定部2043判定出从排斥词汇废弃部1042输出的未被赋予标记的字符串信息是基于“对话用发言”的信息,是应废弃的信息,对该字符串信息赋予标记并输出给受理废弃发送部1045。
若对从发言时间长度判定部2043输入的字符串信息赋予了标记,则受理废弃发送部1045将该字符串信息作为废弃信息而输出给声音获取部201。接收到废弃信息的声音获取部201为了下次的声音识别而进行声音获取的准备(步骤S106)。
另一方面,在步骤S200中,若由声音获取部201创建的发言时间长度信息所表示的发言时间长度在基于计算出的发言时间长度而设定的范围内(是),则发言时间长度判定部2043将从排斥词汇废弃部1042输出的未被赋予标记的字符串信息判定为是基于“控制用发言”的信息,不对该字符串信息赋予标记地直接发送给发言方式判定部2044。
另外,发言时间长度判定部2043例如也可以将计算出的发言时间长度设为给定倍(例如1.5倍)来设定用于判定的范围。该数值只不过为简单的一例,也可以为其他的数值。或者,发言时间长度判定部2043也可以将预先设定的数值加到计算出的发言时间长度上等来设定用于判定的范围,也可以利用其他的方法来设定范围。
发言方式判定部2044针对从发言时间长度判定部2043输入的未被赋予标记的字符串信息,基于发言方式来再次进行应废弃还是应受理(执行)的判定(步骤S201)。
在此,说明发言方式判定部2044所使用的“发言方式”。所谓该“发言方式”,是指在用户700即将发言之前所产生的无声音或者视作实质上无声音的期间(以下记为“停顿期间”)、以及用户700刚结束发言之后所产生的停顿期间。
比较“控制用发言”和“对话用发言”的结果,确认出关于发言方式而存在差异。
在“控制用发言”的情况下,在用户700发言的前后存在比“对话用发言”长的停顿期间。用户700即将发言之前所产生的停顿期间是用于准备发言的期间。用户700刚结束发言之后所产生的停顿期间是等待与发言的内容对应的动作(基于声音操作的动作)开始的期间。
另一方面,在“对话用发言”的情况下,在用户700的发言的前后,这种停顿期间相对较少。
因此,通过检测在发言的前后的停顿期间的长度,从而能够判定成为声音识别的对象的声音是基于“控制用发言”的声音还是基于“对话用发言”的声音。并且,在本实施方式2中,基于声音获取部201创建的发言方式信息,由发言方式判定部2044来进行该判定。
在步骤S201中,发言方式判定部2044基于从发言时间长度判定部2043输出的受理对象词汇,从存储部270中读出与该受理对象词汇建立了关联的发言方式数据。所谓该发言方式数据,是表示在该受理对象词汇的发言的前后所产生的各停顿期间的长度的数据。在本实施方式中,与受理对象词汇建立了关联的发言方式数据被预先存储在存储部270中。然后,发言方式判定部2044比较从存储部270读出的发言方式数据、和从发言时间长度判定部2043输入的字符串信息所附加的发言方式信息(由声音获取部201创建的发言方式信息)。
具体而言,发言方式判定部2044分别比较由声音获取部201创建的发言方式信息所表示的发言前后的停顿期间的长度、和从存储部270读出的发言方式数据所表示的发言前后的停顿期间的长度。另外,发言方式判定部2044可以直接比较由声音获取部201创建的发言方式信息、和从存储部270读出的发言方式数据,也可以基于从存储部270读出的发言方式数据来设定用于判定的范围。另外,若接收到的受理对象词汇为多个,则发言方式判定部2044从存储部270中读出与所有这些受理对象词汇相关的发言方式数据,选择任意一个数值大的发言方式数据。或者,也可以选择任意一个数值小的发言方式数据,或者也可以计算平均值、中间值。
在步骤S201中,若由声音获取部201创建的发言方式信息所表示的发言前后的停顿期间的长度的至少一方小于从存储部270读出的发言方式数据所表示的发言前后的停顿期间的长度(否),则发言方式判定部2044将从发言时间长度判定部2043输出的未被赋予标记的字符串信息判定为是基于“对话用发言”的信息,对该字符串信息赋予标记并输出给受理废弃发送部1045。
若对从发言方式判定部2044输入的字符串信息赋予了标记,则受理废弃发送部1045将该字符串信息作为废弃信息而输出给声音获取部201。接收到废弃信息的声音获取部201为了下次的声音识别而进行声音获取的准备(步骤S106)。
另一方面,在步骤S201中,若由声音获取部201创建的发言方式信息所表示的发言前后的停顿期间的长度均为从存储部270读出的发言方式数据所表示的发言前后的停顿期间的长度以上(是),则发言方式判定部2044将从发言时间长度判定部2043输出的未被赋予标记的字符串信息判定为是基于“控制用发言”的信息,不对该字符串信息赋予标记地直接输出给受理废弃发送部1045。
由此,受理废弃发送部1045接收到的未被赋予标记的字符串信息成为在排斥词汇废弃部1042、发言时间长度判定部2043以及发言方式判定部2044中均未被赋予标记的字符串信息。换言之,若输入至受理废弃发送部1045的字符串信息未被赋予标记,则该字符串信息是在排斥词汇废弃部1042、发言时间长度判定部2043以及发言方式判定部2044中均判断为应受理(应执行指令处理)的字符串信息。另一方面,若输入至受理废弃发送部1045的字符串信息被赋予了标记,则其是在排斥词汇废弃部1042、发言时间长度判定部2043以及发言方式判定部2044的任意一者中判断为废弃信息的字符串信息。
受理废弃发送部1045将未被赋予标记的字符串信息作为应受理(执行)的字符串信息而直接输出给指令处理部106。
指令处理部106基于从受理废弃发送部1045接收到的字符串信息所表示的指示来执行指令处理(步骤S105)。
在步骤S105结束后,指令处理部106向声音获取部201发送表示指令处理已结束的信号。接收到该信号的声音获取部201为了下次的声音识别而进行声音获取的准备(步骤S106)。
在步骤S106中,赋予了标记的字符串信息作为废弃信息而从受理废弃发送部1045向声音获取部201输出。接收到废弃信息的声音获取部201为了下次的声音识别而进行声音获取的准备。
另外,步骤S200和步骤S201哪方先执行均可。
[2-3.效果等]
如以上,在本实施方式中,声音识别处理装置200具备:声音获取部201、识别结果判定部204和存储部270。声音获取部201基于获取到的声音,对用户700发言的时间的长度进行测定来创建发言时间长度信息。此外,声音获取部201基于获取到的声音,对在用户700的发言的前后所产生的无声音期间的长度进行测定来创建发言方式信息。存储部270中预先存储表示发言所需的时间的发言时间长度数据、和表示在发言的前后所产生的无声音期间的长度的发言方式数据。识别结果判定部204针对不含与排斥词汇一致的词语而被判定为应执行的字符串信息,从存储部270中读出发言时间长度数据,比较读出的发言时间长度数据和由声音获取部201创建的发言时间长度信息,基于该比较来再次进行应废弃还是应执行的判定。然后,针对被判定为应执行的字符串信息,从存储部270中读出发言方式数据,比较读出的发言方式数据和由声音获取部201创建的发言方式信息,基于该比较来再次进行应废弃还是应执行的判定。该字符串信息为第1信息的一例。
在如此构成的声音识别处理装置200中,若输入至受理废弃发送部1045的字符串信息未被赋予标记,则其是在排斥词汇废弃部1042、发言时间长度判定部2043以及发言方式判定部2044中均判断为应受理(应执行指令处理)的字符串信息。另一方面,若输入至受理废弃发送部1045的字符串信息被赋予了标记,则其是在排斥词汇废弃部1042、发言时间长度判定部2043以及发言方式判定部2044的任意一者中判断为废弃信息的字符串信息。如此,在本实施方式中,针对作为声音识别的结果而从识别结果获取部103接收到的字符串信息,在排斥词汇废弃部1042、发言时间长度判定部2043以及发言方式判定部2044中分别判定应受理(指令处理)还是应废弃。并且,对于被任意一个判定为应废弃的字符串信息予以废弃,只有全部判定为应受理的字符串信息被进行指令处理。
由此,在声音识别处理装置200中,能够精度良好地判定被声音识别的声音是基于“控制用发言”的声音还是基于“对话用发言”的声音,因此能够降低误识别,进一步提升声音识别的精度。
(其他实施方式)
如以上,作为本申请中公开的技术例示,说明了实施方式1、2。然而,本公开中的技术并不限定于此,也能够应用于进行了变更、置换、附加、省略等之后的实施方式。此外,也能够组合上述实施方式1、2中所说明的各构成要素来作为新的实施方式。
为此,以下例示其他实施方式。
在实施方式2中,说明了识别结果判定部204除了具备排斥词汇废弃部1042之外还具备发言时间长度判定部2043和发言方式判定部2044来提高声音识别的精度的构成。但即使识别结果判定部是在排斥词汇废弃部1042上组合具备发言时间长度判定部2043和发言方式判定部2044的任意一方的构成,也能够提高声音识别的精度。
图8A是表示其他实施方式中的识别结果判定部304的一构成例的框图。图8B是表示其他实施方式中的识别结果判定部404的一构成例的框图。
另外,关于与实施方式1、2中所说明的电视机10、20具备的构成要素进行实质上相同的动作的构成要素,赋予与实施方式1、2相同的符号,并省略说明。
图8A所示的识别结果判定部304是具备排斥词汇废弃部1042、发言时间长度判定部2043和受理废弃发送部1045而不具备发言方式判定部2044的构成。
具备图8A所示的识别结果判定部304的声音识别装置按如下方式来动作。
声音获取部(未图示)基于获取到的声音,对用户700发言的时间的长度进行测定来创建发言时间长度信息。存储部370中预先存储表示发言所需的时间的发言时间长度数据。该发言时间长度信息以及发言时间长度数据与实施方式2中所说明的发言时间长度信息以及发言时间长度数据实质上相同。
识别结果判定部304针对不含与排斥词汇一致的词语而由排斥词汇废弃部1042判定为应执行的字符串信息,从存储部370中读出发言时间长度数据,比较读出的发言时间长度数据和由声音获取部创建的发言时间长度信息,基于该比较来再次进行应废弃还是应执行的判定。该字符串信息为第1信息的一例。
识别结果判定部304具体按如下方式来动作。
发言时间长度判定部2043针对从排斥词汇废弃部1042输入的未被赋予标记的字符串信息,基于发言时间长度来再次进行应废弃还是应受理(执行)的判定。
发言时间长度判定部2043的动作与实施方式2中所说明的发言时间长度判定部2043实质上相同,因此省略说明。
发言时间长度判定部2043对判定为是基于“控制用发言”的信息的字符串信息不赋予标记,直接输出给受理废弃发送部1045。受理废弃发送部1045将未被赋予标记的字符串信息作为应受理(执行)的字符串信息而直接输出给指令处理部106。
图8B所示的识别结果判定部404是具备排斥词汇废弃部1042、发言方式判定部2044和受理废弃发送部1045而不具备发言时间长度判定部2043的构成。
具备图8B所示的识别结果判定部404的声音识别装置按如下方式来动作。
声音获取部(未图示)基于获取到的声音,对在用户700的发言的前后所产生的无声音期间的长度进行测定来创建发言方式信息。存储部470中预先存储表示在发言的前后所产生的无声音期间的长度的发言方式数据。该发言方式信息以及发言方式数据与实施方式2中所说明的发言方式信息以及发言方式数据实质上相同。
识别结果判定部404针对不含与排斥词汇一致的词语而由排斥词汇废弃部1042判定为应执行的字符串信息,从存储部470中读出发言方式数据,比较读出的发言方式数据和由声音获取部创建的发言方式信息,基于该比较来再次进行应废弃还是应执行的判定。该字符串信息为第1信息的一例。
识别结果判定部404具体按如下方式来动作。
发言方式判定部2044针对从排斥词汇废弃部1042输入的未被赋予标记的字符串信息,基于发言方式来再次进行应废弃还是应受理(执行)的判定。
发言方式判定部2044的动作与实施方式2中所说明的发言方式判定部2044实质上相同,因此省略说明。
发言方式判定部2044对判定为是基于“控制用发言”的信息的字符串信息不赋予标记,直接输出给受理废弃发送部1045。受理废弃发送部1045将未被赋予标记的字符串信息作为应受理(执行)的字符串信息而直接输出给指令处理部106。
识别结果判定部即便是例如图8A、图8B所示那样的仅具备发言时间长度判定部2043和发言方式判定部2044的任意一方的构成,也能够提升声音识别的精度。
另外,在本实施方式中,虽然说明了声音识别服务器50配置在网络40上的例子,但声音识别服务器50也可以配备在声音识别处理装置100中。或者,也能够构成为不具备声音识别服务器50而仅由声音识别部102来进行声音识别。
另外,图2、图3、图5、图6、图8A、图8B所示的各模块分别可以作为独立的电路模块来构成,可以是由处理器来执行被编程为实现各模块的动作的软件的构成。
产业上的可利用性
本公开能够适用于执行用户利用声音来指示的处理动作的设备。具体而言,本公开能够适用于便携式终端设备、电视接收机、个人计算机、机顶盒、录影机、游戏机、智能手机、平板终端等。
符号说明
10,20电视接收机
11,21声音识别处理系统
40网络
50声音识别服务器
55,175识别词典
100,200声音识别处理装置
101,201声音获取部
102声音识别部
103识别结果获取部
104,204,304,404识别结果判定部
106指令处理部
130内置话筒
140显示部
150收发部
160调谐器
170,171,270,370,470存储部
202指示器
203声音识别图标
700用户
1042排斥词汇废弃部
1045受理废弃发送部
2043发言时间长度判定部
2044发言方式判定部

Claims (8)

1.一种声音识别处理装置,其特征在于,具备:
声音获取部,其构成为获取用户发出的声音并输出声音信息;
第1声音识别部,其构成为将所述声音信息变换为第1信息;
存储部,其预先存储了登记有排斥词汇的词典;和
识别结果判定部,其比较所述第1信息和所述排斥词汇,判定在所述第1信息中是否包含与所述排斥词汇一致的词语,
在所述第1信息中包含与所述排斥词汇一致的词语时,所述识别结果判定部将所述第1信息判定为应废弃的信息,
在所述第1信息中不含与所述排斥词汇一致的词语时,所述识别结果判定部将所述第1信息判定为应执行的信息。
2.根据权利要求1所述的声音识别处理装置,其特征在于,
所述声音获取部基于获取到的所述声音,对所述用户发言的时间的长度进行测定来创建发言时间长度信息,
所述存储部中预先存储表示发言所需的时间的发言时间长度数据,
所述识别结果判定部针对不含与所述排斥词汇一致的词语而被判定为应执行的所述第1信息,从所述存储部中读出所述发言时间长度数据,比较读出的所述发言时间长度数据和由所述声音获取部创建的所述发言时间长度信息,基于所述比较来再次进行应废弃还是应执行的判定。
3.根据权利要求1所述的声音识别处理装置,其特征在于,
所述声音获取部基于获取到的所述声音,对在所述用户的发言的前后所产生的无声音期间的长度进行测定来创建发言方式信息,
所述存储部中预先存储表示在发言的前后所产生的无声音期间的长度的发言方式数据,
所述识别结果判定部针对不含与所述排斥词汇一致的词语而被判定为应执行的所述第1信息,从所述存储部中读出所述发言方式数据,比较读出的所述发言方式数据和由所述声音获取部创建的所述发言方式信息,基于所述比较来再次进行应废弃还是应执行的判定。
4.根据权利要求1所述的声音识别处理装置,其特征在于,
所述声音获取部基于获取到的所述声音,对所述用户发言的时间的长度进行测定来创建发言时间长度信息,并且对在所述用户的发言的前后所产生的无声音期间的长度进行测定来创建发言方式信息,
所述存储部中预先存储表示发言所需的时间的发言时间长度数据、和表示在发言的前后所产生的无声音期间的长度的发言方式数据,
所述识别结果判定部针对不含与所述排斥词汇一致的词语而被判定为应执行的所述第1信息,从所述存储部中读出所述发言时间长度数据,比较读出的所述发言时间长度数据和由所述声音获取部创建的所述发言时间长度信息,基于所述比较来再次进行应废弃还是应执行的判定,并且针对被判定为应执行的所述第1信息,从所述存储部中读出所述发言方式数据,比较读出的所述发言方式数据和由所述声音获取部创建的所述发言方式信息,基于所述比较来再次进行应废弃还是应执行的判定。
5.根据权利要求1所述的声音识别处理装置,其特征在于,还具备:
第2声音识别部,其构成为将所述声音信息变换为第2信息;和
选择部,其构成为选择所述第1信息和所述第2信息的任意一方并输出,
所述识别结果判定部针对在所述选择部中选择出的一方的信息,进行应废弃还是应执行的判定。
6.根据权利要求5所述的声音识别处理装置,其特征在于,
所述第2声音识别部被设置在网络上,
所述声音识别处理装置还具备:收发部,其构成为经由所述网络而与所述第2声音识别部进行通信。
7.一种声音识别处理方法,其特征在于,包括:
获取用户发出的声音并变换为声音信息的步骤;
将所述声音信息变换为第1信息的步骤;
将所述声音信息变换为第2信息的步骤;
选择所述第1信息和所述第2信息的任意一方的步骤;
比较所述选择出的信息和词典中登记的排斥词汇,判定在所述选择出的信息中是否包含与所述排斥词汇一致的词语的步骤;
在所述选择出的信息中包含与所述排斥词汇一致的词语时,将所述选择出的信息判定为应废弃的信息的步骤;和
在所述选择出的信息中不含与所述排斥词汇一致的词语时,将所述选择出的信息判定为应执行的信息的步骤。
8.一种显示装置,其特征在于,具备:
声音获取部,其构成为获取用户发出的声音并输出声音信息;
第1声音识别部,其构成为将所述声音信息变换为第1信息;
存储部,其预先存储了登记有排斥词汇的词典;
识别结果判定部,其构成为比较所述第1信息和所述排斥词汇,判定在所述第1信息中是否包含与所述排斥词汇一致的词语,并基于所述判定来判定应废弃还是应执行所述第1信息;
处理部,其构成为执行基于在所述识别结果判定部中判定为应执行的所述第1信息的处理;和
显示部,
在所述第1信息中包含与所述排斥词汇一致的词语时,所述识别结果判定部将所述第1信息判定为应废弃的信息,
在所述第1信息中不含与所述排斥词汇一致的词语时,所述识别结果判定部将所述第1信息判定为应执行的信息。
CN201480051019.7A 2013-12-26 2014-12-25 声音识别处理装置、声音识别处理方法以及显示装置 Active CN105556594B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013268670 2013-12-26
JP2013-268670 2013-12-26
PCT/JP2014/006449 WO2015098109A1 (ja) 2013-12-26 2014-12-25 音声認識処理装置、音声認識処理方法、および表示装置

Publications (2)

Publication Number Publication Date
CN105556594A true CN105556594A (zh) 2016-05-04
CN105556594B CN105556594B (zh) 2019-05-17

Family

ID=53478005

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480051019.7A Active CN105556594B (zh) 2013-12-26 2014-12-25 声音识别处理装置、声音识别处理方法以及显示装置

Country Status (5)

Country Link
US (1) US9767795B2 (zh)
EP (1) EP3089158B1 (zh)
JP (1) JPWO2015098109A1 (zh)
CN (1) CN105556594B (zh)
WO (1) WO2015098109A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107665708A (zh) * 2016-07-29 2018-02-06 科大讯飞股份有限公司 智能语音交互方法及系统
CN108140398A (zh) * 2015-10-06 2018-06-08 微软技术许可有限责任公司 基于多个音频馈源来标识来自兴趣源的声音
CN109147780A (zh) * 2018-08-15 2019-01-04 重庆柚瓣家科技有限公司 自由聊天场景下的语音识别方法及系统
CN109643543A (zh) * 2016-09-02 2019-04-16 夏普株式会社 响应装置及其控制方法以及控制程序
CN110503951A (zh) * 2018-05-18 2019-11-26 夏普株式会社 判定装置、电子设备、响应系统、判定装置的控制方法
CN111081232A (zh) * 2018-10-18 2020-04-28 柯尼卡美能达株式会社 图像形成装置、语音识别装置以及计算机可读记录介质
CN112135564A (zh) * 2018-05-23 2020-12-25 松下知识产权经营株式会社 摄食吞咽功能评价方法、程序、评价装置以及评价系统
WO2021042584A1 (zh) * 2019-09-04 2021-03-11 苏州思必驰信息科技有限公司 全双工语音对话方法
WO2021109751A1 (zh) * 2019-12-05 2021-06-10 海信视像科技股份有限公司 信息处理装置及非易失性存储介质

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104956436B (zh) * 2012-12-28 2018-05-29 株式会社索思未来 带有语音识别功能的设备以及语音识别方法
WO2016157782A1 (ja) * 2015-03-27 2016-10-06 パナソニックIpマネジメント株式会社 音声認識システム、音声認識装置、音声認識方法、および制御プログラム
US10409552B1 (en) * 2016-09-19 2019-09-10 Amazon Technologies, Inc. Speech-based audio indicators
CN111611575A (zh) * 2016-10-13 2020-09-01 创新先进技术有限公司 基于虚拟现实场景的业务实现方法及装置
US10467509B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US11010601B2 (en) 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
JP7096707B2 (ja) * 2018-05-29 2022-07-06 シャープ株式会社 電子機器、電子機器を制御する制御装置、制御プログラムおよび制御方法
JP7231342B2 (ja) * 2018-07-09 2023-03-01 シャープ株式会社 コンテンツ表示システム及び表示装置
US11176939B1 (en) 2019-07-30 2021-11-16 Suki AI, Inc. Systems, methods, and storage media for performing actions based on utterance of a command

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227686A (ja) * 2004-02-16 2005-08-25 Sharp Corp 音声認識装置、音声認識プログラムおよび記録媒体。
US7949536B2 (en) * 2006-08-31 2011-05-24 Microsoft Corporation Intelligent speech recognition of incomplete phrases
US20130018895A1 (en) * 2011-07-12 2013-01-17 Harless William G Systems and methods for extracting meaning from speech-to-text data
WO2013061857A1 (ja) * 2011-10-25 2013-05-02 オリンパスメディカルシステムズ株式会社 内視鏡手術システム
CN103247291A (zh) * 2013-05-07 2013-08-14 华为终端有限公司 一种语音识别设备的更新方法、装置及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3477751B2 (ja) 1993-09-07 2003-12-10 株式会社デンソー 連続単語音声認識装置
JPH11311994A (ja) 1998-04-30 1999-11-09 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000020089A (ja) 1998-07-07 2000-01-21 Matsushita Electric Ind Co Ltd 音声認識方法及びその装置、並びに音声制御システム
DE69941686D1 (de) 1999-01-06 2010-01-07 Koninkl Philips Electronics Nv Spracheingabegerät mit aufmerksamkeitsspanne
US7899671B2 (en) * 2004-02-05 2011-03-01 Avaya, Inc. Recognition results postprocessor for use in voice recognition systems
US7813482B2 (en) * 2005-12-12 2010-10-12 International Business Machines Corporation Internet telephone voice mail management
JP4845118B2 (ja) * 2006-11-20 2011-12-28 富士通株式会社 音声認識装置、音声認識方法、および、音声認識プログラム
JP4902617B2 (ja) * 2008-09-30 2012-03-21 株式会社フュートレック 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム
JP4852584B2 (ja) 2008-10-23 2012-01-11 ヤフー株式会社 禁止語発信防止方法、禁止語発信防止電話、禁止語発信防止サーバ
JP2011170274A (ja) 2010-02-22 2011-09-01 Chugoku Electric Power Co Inc:The 事故復旧訓練装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227686A (ja) * 2004-02-16 2005-08-25 Sharp Corp 音声認識装置、音声認識プログラムおよび記録媒体。
US7949536B2 (en) * 2006-08-31 2011-05-24 Microsoft Corporation Intelligent speech recognition of incomplete phrases
US20130018895A1 (en) * 2011-07-12 2013-01-17 Harless William G Systems and methods for extracting meaning from speech-to-text data
WO2013061857A1 (ja) * 2011-10-25 2013-05-02 オリンパスメディカルシステムズ株式会社 内視鏡手術システム
CN103247291A (zh) * 2013-05-07 2013-08-14 华为终端有限公司 一种语音识别设备的更新方法、装置及系统

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108140398A (zh) * 2015-10-06 2018-06-08 微软技术许可有限责任公司 基于多个音频馈源来标识来自兴趣源的声音
CN108140398B (zh) * 2015-10-06 2021-08-24 微软技术许可有限责任公司 用于基于多个音频馈源来标识来自兴趣源的声音的方法和系统
CN107665708A (zh) * 2016-07-29 2018-02-06 科大讯飞股份有限公司 智能语音交互方法及系统
CN107665708B (zh) * 2016-07-29 2021-06-08 科大讯飞股份有限公司 智能语音交互方法及系统
CN109643543A (zh) * 2016-09-02 2019-04-16 夏普株式会社 响应装置及其控制方法以及控制程序
CN110503951A (zh) * 2018-05-18 2019-11-26 夏普株式会社 判定装置、电子设备、响应系统、判定装置的控制方法
CN112135564A (zh) * 2018-05-23 2020-12-25 松下知识产权经营株式会社 摄食吞咽功能评价方法、程序、评价装置以及评价系统
CN112135564B (zh) * 2018-05-23 2024-04-02 松下知识产权经营株式会社 摄食吞咽功能评价方法、记录介质、评价装置以及评价系统
CN109147780A (zh) * 2018-08-15 2019-01-04 重庆柚瓣家科技有限公司 自由聊天场景下的语音识别方法及系统
CN109147780B (zh) * 2018-08-15 2023-03-03 重庆柚瓣家科技有限公司 自由聊天场景下的语音识别方法及系统
CN111081232A (zh) * 2018-10-18 2020-04-28 柯尼卡美能达株式会社 图像形成装置、语音识别装置以及计算机可读记录介质
WO2021042584A1 (zh) * 2019-09-04 2021-03-11 苏州思必驰信息科技有限公司 全双工语音对话方法
WO2021109751A1 (zh) * 2019-12-05 2021-06-10 海信视像科技股份有限公司 信息处理装置及非易失性存储介质

Also Published As

Publication number Publication date
EP3089158A4 (en) 2016-11-02
CN105556594B (zh) 2019-05-17
JPWO2015098109A1 (ja) 2017-03-23
US9767795B2 (en) 2017-09-19
WO2015098109A1 (ja) 2015-07-02
US20160217783A1 (en) 2016-07-28
EP3089158B1 (en) 2018-08-08
EP3089158A1 (en) 2016-11-02

Similar Documents

Publication Publication Date Title
CN105556594A (zh) 声音识别处理装置、声音识别处理方法以及显示装置
CN107944325B (zh) 一种扫码方法、扫码装置及移动终端
CN108347512B (zh) 一种身份识别方法及移动终端
CN108021572A (zh) 回复信息推荐方法和装置
CN110827826B (zh) 语音转换文字方法、电子设备
CN103076893A (zh) 一种用于实现语音输入的方法与设备
KR20140058127A (ko) 음성인식장치 및 음성인식방법
JP2008287210A5 (zh)
CN107145859A (zh) 电子书转换处理方法、装置及计算机可读存储介质
CN109726121B (zh) 一种验证码获取方法和终端设备
CN107657469A (zh) 一种广告信息的推送方法、装置及机顶盒
CN109040444B (zh) 一种通话录音方法、终端及计算机可读存储介质
CN107146631A (zh) 音乐识别方法、音符识别模型建立方法、装置及电子设备
KR20130038723A (ko) 키워드를 이용한 검색 방법 및 시스템
CN111159338A (zh) 一种恶意文本的检测方法、装置、电子设备及存储介质
CN110633438B (zh) 一种新闻事件处理的方法、终端、服务器及存储介质
CN108510267B (zh) 一种账户信息获取方法、移动终端
CN110069769B (zh) 应用标签生成方法、装置及存储设备
CN109992753B (zh) 一种翻译处理方法及终端设备
KR102149914B1 (ko) 클라우드 소싱 기반 관심 지점 정보 업데이트 방법, 및 이를 위한 장치
CN108322770A (zh) 视频节目识别方法、相关装置、设备和系统
US20120274803A1 (en) Information processing device and method for controlling an information processing device
CN109063076B (zh) 一种图片生成方法及移动终端
CN108595107B (zh) 一种界面内容处理方法及移动终端
CN111143614A (zh) 视频显示方法及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant