JP2015146055A - Voice recognition system and voice processing system - Google Patents

Voice recognition system and voice processing system Download PDF

Info

Publication number
JP2015146055A
JP2015146055A JP2015103920A JP2015103920A JP2015146055A JP 2015146055 A JP2015146055 A JP 2015146055A JP 2015103920 A JP2015103920 A JP 2015103920A JP 2015103920 A JP2015103920 A JP 2015103920A JP 2015146055 A JP2015146055 A JP 2015146055A
Authority
JP
Japan
Prior art keywords
voice
recognition
server
result
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015103920A
Other languages
Japanese (ja)
Other versions
JP5973030B2 (en
Inventor
戸嶋 朗
Akira Toshima
朗 戸嶋
一則 安田
Kazunori Yasuda
一則 安田
赤羽 俊夫
Toshio Akaha
俊夫 赤羽
毅 築地
Takeshi Tsukiji
毅 築地
平田 真章
Masaaki Hirata
真章 平田
千葉 雅裕
Masahiro Chiba
雅裕 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015103920A priority Critical patent/JP5973030B2/en
Publication of JP2015146055A publication Critical patent/JP2015146055A/en
Application granted granted Critical
Publication of JP5973030B2 publication Critical patent/JP5973030B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase recognizable vocabulary and improve accuracy of recognition.SOLUTION: A voice response system (100) comprises an information processing device (1) comprising a voice recognition unit (22), and a voice recognition server (2) comprising a voice recognition unit (61). Recognition processing of voice acquired by the information processing device (1) is performed by the voice recognition unit (22), and also performed by the voice recognition unit (61). The information processing device (1) has a sleep function which does not transmit the acquired voice to the voice recognition server (2).

Description

本発明は、ユーザの音声に対応する処理を実行する音声認識システム等に関する。   The present invention relates to a voice recognition system that executes processing corresponding to a user's voice.

従来、自動的に会話等の処理を行うロボットが普及している。特に、近年では、会話だけではなく、ユーザの音声に対応して自動的に様々な処理を実行するロボットも存在する。また、スマートフォンを介して制御可能なロボットや、カメラを備え、撮影した画像を、ネットワークを介してスマートフォンに送信するロボットも存在する。   2. Description of the Related Art Conventionally, robots that automatically process conversations and the like have become widespread. In particular, in recent years, there are robots that automatically execute various processes in response to a user's voice as well as a conversation. There are also robots that can be controlled via a smartphone, and robots that include a camera and that transmit captured images to the smartphone via a network.

SHARP ロボット家電(電気掃除機)取扱説明書RX-V100 2012年SHARP Robot Home Appliances (Vacuum Vacuum Cleaner) Instruction Manual RX-V100 2012

上述したロボット(ロボット家電)では、ロボット単体でユーザとの会話を実行するため、認識可能な語彙が限定的であったり、ユーザの音声を正確に認識できなかったりする可能性がある。   In the above-described robot (robot household appliance), since the conversation with the user is executed by the robot alone, there is a possibility that the recognizable vocabulary is limited or the user's voice cannot be recognized accurately.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、認識可能な語彙を増加させるとともに、認識の精度を向上させた音声認識システム等を実現することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to realize a speech recognition system and the like that can increase the recognition vocabulary and improve the recognition accuracy.

上記の課題を解決するために、本発明の一態様に係る音声認識システムは、音声を取得し、取得した音声に対する音声認識処理を行う音声処理装置と、該音声処理装置と通信可能なサーバとにより構成された音声認識システムであって、上記音声処理装置には、上記取得した音声の音声認識処理を行う第1音声認識手段と、上記取得した音声を上記サーバに送信する音声送信手段と、上記サーバから、上記サーバによる上記音声の音声認識処理の結果である第2認識結果および該第2認識結果に対応付けられた音声応答処理内容を取得する音声認識結果取得手段と、上記第1音声認識手段が音声認識処理を行った結果である第1認識結果に対応付けられた応答を音声出力すると共に、上記音声認識結果取得手段が上記サーバから取得した、上記第2認識結果に対応付けられた上記音声応答処理内容を音声出力する音声対応手段と、が備えられており、上記サーバには、上記音声処理装置が取得した音声を受信する音声受信手段と、上記音声受信手段が受信した上記音声の音声認識処理を行い、上記第2認識結果を生成する第2音声認識手段と、上記第2音声認識手段が音声認識処理を行った結果である上記第2認識結果を上記音声処理装置に送信する音声認識結果送信手段と、が備えられており、さらに、上記音声処理装置は、スリープ機能を有しており、上記スリープ機能が設定されている場合、上記音声送信手段は、上記音声送信手段が取得した上記音声を上記サーバに送信せず、上記音声対応手段は、上記第1音声認識手段が音声認識処理を行った結果である上記第1認識結果に対応付けられた応答を音声出力することを特徴としている。   In order to solve the above problems, a speech recognition system according to an aspect of the present invention includes a speech processing device that acquires speech and performs speech recognition processing on the acquired speech, and a server that can communicate with the speech processing device. A voice recognition system comprising: a first voice recognition unit that performs voice recognition processing of the acquired voice; a voice transmission unit that transmits the acquired voice to the server; Speech recognition result acquisition means for acquiring, from the server, a second recognition result that is a result of the speech recognition processing of the speech by the server and a speech response processing content associated with the second recognition result; and the first speech The recognition unit outputs a response associated with the first recognition result, which is a result of performing the voice recognition process, and the voice recognition result acquisition unit acquires the response from the server. Voice response means for outputting the voice response processing contents associated with the second recognition result as voice, and the server includes voice reception means for receiving the voice acquired by the voice processing device; The second voice recognition means for performing voice recognition processing of the voice received by the voice reception means and generating the second recognition result, and the second result that is the result of the voice recognition processing performed by the second voice recognition means. Voice recognition result transmission means for transmitting a recognition result to the voice processing device, and further, the voice processing device has a sleep function, and when the sleep function is set, The voice transmitting unit does not transmit the voice acquired by the voice transmitting unit to the server, and the voice handling unit does not perform the first recognition result as a result of the voice recognition process performed by the first voice recognition unit. It is characterized in that the audio output responses associated with.

本発明の一態様によれば、認識可能な語彙を増加させるとともに、認識の精度を向上させた音声認識システム等を実現することができるとともに、サーバにユーザが意図しない音声が通知されてしまうことを防止することができるという効果を奏する。   According to one aspect of the present invention, it is possible to realize a speech recognition system or the like that increases the vocabulary that can be recognized and improves the accuracy of recognition, and the server notifies the user of unintended speech. There is an effect that can be prevented.

本発明の実施形態に係る情報処理装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る音声応答システムの概要を示す図である。It is a figure which shows the outline | summary of the voice response system which concerns on embodiment of this invention. 本発明に実施形態に係る音声認識サーバ、配信サーバ、および双方向通信サーバの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the speech recognition server which concerns on embodiment of this invention, a delivery server, and a bidirectional | two-way communication server. 上記情報処理装置に格納されている音声テーブルの例を示す図である。It is a figure which shows the example of the audio | voice table stored in the said information processing apparatus. (a)、(b)は、上記配信サーバに格納されている会話テーブルの例を示す図である。(A), (b) is a figure which shows the example of the conversation table stored in the said delivery server. 上記実施形態における処理の例を一覧としてまとめた図である。It is the figure which put together the example of the process in the said embodiment as a list. (a)、(b)は、上記音声認識サーバにおいて合成音声を生成する場合における、配信情報と生成する音声との対応例を示す図である。(A), (b) is a figure which shows the example of a response | compatibility with the delivery information and the audio | voice to produce | generate when the synthetic | combination audio | voice is produced | generated in the said audio | voice recognition server. 上記音声応答システムにおける処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of a process in the said voice response system. 上記音声応答システムにおける処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of a process in the said voice response system. 本発明の別の実施形態に係る音声認識部の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the speech recognition part which concerns on another embodiment of this invention. 上記別の実施形態において、音声に応じて認識閾値を変える場合の処理の流れを示すフローチャートである。In another embodiment, it is a flowchart which shows the flow of a process in the case of changing a recognition threshold value according to an audio | voice. 上記別の実施形態において、音声に応じて認識閾値を変える場合の処理の流れを示すフローチャートである。In another embodiment, it is a flowchart which shows the flow of a process in the case of changing a recognition threshold value according to an audio | voice. 上記別の実施形態において用いる判定テーブルの例を示す図である。It is a figure which shows the example of the determination table used in said another embodiment. 本発明のさらに別の実施形態において、ユーザが情報処理装置に話しかけたときに、情報処理装置が発話する処理の流れを示すシーケンス図である。In another embodiment of this invention, when a user talks to an information processing apparatus, it is a sequence diagram which shows the flow of the process which an information processing apparatus speaks. 上記別の実施形態において、情報処理装置の近傍に人を検知したときに、情報処理装置が発話する処理の流れを示すシーケンス図である。In another embodiment, when a person is detected in the vicinity of an information processing apparatus, it is a sequence diagram which shows the flow of the process which an information processing apparatus speaks. 上記別の実施形態において、情報処理装置から呼びかけを行う場合における情報処理装置の発話処理の流れを示すシーケンス図である。In another embodiment, it is a sequence diagram which shows the flow of the speech process of the information processing apparatus when calling from the information processing apparatus.

〔実施形態1〕
〔音声応答システム100の概要〕
以下、本発明の一実施形態について、図1〜図9を参照して説明する。まず、図2を参照して、本実施形態に係る音声応答システム100の概要を説明する。図2は、音声応答システム100の概要を示す図である。
Embodiment 1
[Outline of Voice Response System 100]
Hereinafter, an embodiment of the present invention will be described with reference to FIGS. First, the outline of the voice response system 100 according to the present embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an outline of the voice response system 100.

図2に示すように、本実施形態に係る音声応答システム100は、情報処理装置1、音声認識サーバ2、配信サーバ3、および双方向通信サーバ4を含む構成であり、情報処理装置1と、音声認識サーバ2、配信サーバ3、および双方向通信サーバ4とは通信可能となっている。本実施の形態では、情報処理装置1と音声認識サーバ2、配信サーバ3とは、HTTP(Hyper Text transfer Protocol)による通信を行い、情報処理装置1と双方向通信サーバ4とはWeb Socketによる双方向通信を行うことを想定している。   As illustrated in FIG. 2, the voice response system 100 according to the present embodiment includes an information processing device 1, a voice recognition server 2, a distribution server 3, and a bidirectional communication server 4. The voice recognition server 2, the distribution server 3, and the bidirectional communication server 4 can communicate with each other. In the present embodiment, the information processing apparatus 1, the voice recognition server 2, and the distribution server 3 communicate with each other using HTTP (Hyper Text Transfer Protocol), and the information processing apparatus 1 and the two-way communication server 4 are both configured using Web Sockets. It is assumed that the communication is directed.

そして、本実施形態では、情報処理装置1と音声認識サーバ2との2装置で音声認識処理を行うことにより、従来であれば認識不可能であった語彙を認識可能とするとともに、認識の精度を向上させるものである。さらに、単に挨拶等を返すのみでなく、ユーザにとって有益となると考えられる情報を音声で出力するものである。   In this embodiment, the speech recognition processing is performed by the two devices of the information processing device 1 and the speech recognition server 2, thereby enabling recognition of vocabulary that could not be recognized in the past and accuracy of recognition. Is to improve. Furthermore, not only a greeting or the like is returned, but information that is considered to be useful to the user is output by voice.

例えば、ユーザが情報処理装置1に対し「おはよう」と呼びかけると、ユーザに対し、「おはよう」と返事を行うとともに、付加情報(例えば、「今日は晴れだよ。」、「今日は燃えるゴミの日だよ。」等)を音声で出力するものである。   For example, when the user calls the information processing apparatus 1 “Good morning”, the user answers “Good morning” and adds additional information (for example, “Today is sunny”, “Today's burning garbage "It's the day."

おおまかな処理の流れとしては、以下の通りである。情報処理装置1は検知した音声を認識処理するとともに、音声データを音声認識サーバ2に送信する。ここで、情報処理装置1が「おはよう」の認識に成功すれば、「おはよう」と音声で出力する。さらに、音声認識サーバ2は認識した音声を情報処理装置1に通知するとともに、配信サーバ3に通知する。ここでは、音声認識サーバ2から取得した認識結果は、自装置で認識した結果と同じなので、情報処理装置1は何もしない。   The general processing flow is as follows. The information processing apparatus 1 recognizes the detected voice and transmits voice data to the voice recognition server 2. If the information processing apparatus 1 succeeds in recognizing “good morning”, it outputs “good morning” by voice. Furthermore, the voice recognition server 2 notifies the information processing apparatus 1 of the recognized voice and also notifies the distribution server 3. Here, since the recognition result acquired from the speech recognition server 2 is the same as the result recognized by the own apparatus, the information processing apparatus 1 does nothing.

一方、配信サーバ3は音声認識サーバ2が認識した音声と対応する情報を出力させるためのコマンドを送信する指示を双方向通信サーバ4に行う。双方向通信サーバ4は、該情報を出力するためのコマンドを情報処理装置1に送信する。情報処理装置1は、受信したコマンドが示す音声を予め格納しており、該コマンドを受信して、音声(例えば、「今日は晴れだよ」)を出力する。   On the other hand, the distribution server 3 instructs the bidirectional communication server 4 to transmit a command for outputting information corresponding to the voice recognized by the voice recognition server 2. The bidirectional communication server 4 transmits a command for outputting the information to the information processing apparatus 1. The information processing apparatus 1 stores in advance the voice indicated by the received command, receives the command, and outputs the voice (for example, “It is sunny today”).

〔音声応答システム100の詳細〕
〔情報処理装置1〕
次に、音声応答システム100の詳細について、説明する。まず、情報処理装置1について、図1を参照して説明する。図1は、情報処理装置1の要部構成を示すブロック図である。図1に示すように、情報処理装置1は、制御部10、記憶部11、マイク12、スピーカ13、およびIR部14を含む構成である。
[Details of Voice Response System 100]
[Information processing apparatus 1]
Next, details of the voice response system 100 will be described. First, the information processing apparatus 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a main configuration of the information processing apparatus 1. As illustrated in FIG. 1, the information processing apparatus 1 includes a control unit 10, a storage unit 11, a microphone 12, a speaker 13, and an IR unit 14.

マイク12は、外部からの音声等を電気信号に変換して通信部21、音声認識部22に通知するものである。スピーカ13は、出力処理部23から通知された音声情報を音声として外部に出力するものである。IR部14は、動作処理部24から通知された動作指示情報に基づいて、外部機器(テレビ、エアコン等)を制御するための赤外線(信号)を出力するものである。   The microphone 12 converts an external voice or the like into an electrical signal and notifies the communication unit 21 and the voice recognition unit 22. The speaker 13 outputs the sound information notified from the output processing unit 23 to the outside as sound. The IR unit 14 outputs infrared rays (signals) for controlling an external device (TV, air conditioner, etc.) based on the operation instruction information notified from the operation processing unit 24.

記憶部11は、情報処理装置1が使用する各種データを格納するものである。記憶部11は、情報処理装置1の制御部10が実行する(1)制御プログラム、(2)OSプログラム、(3)各種機能を実行するためのアプリケーションプログラム、および、(4)該アプリケーションプログラムを実行するときに読み出す各種データを記憶するものである。上記の(1)〜(4)のデータは、例えば、ROM(read only memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(登録商標)(Electrically EPROM)、HDD(Hard Disc Drive)等の不揮発性記憶装置に記憶される。   The storage unit 11 stores various data used by the information processing apparatus 1. The storage unit 11 includes (1) a control program executed by the control unit 10 of the information processing apparatus 1, (2) an OS program, (3) an application program for executing various functions, and (4) the application program. Various data to be read when executing are stored. The above data (1) to (4) are, for example, ROM (read only memory), flash memory, EPROM (Erasable Programmable ROM), EEPROM (registered trademark) (Electrically EPROM), HDD (Hard Disc Drive), etc. It is stored in a non-volatile storage device.

また、記憶部11には、後述する出力処理部23が用いる音声テーブル31が格納されている。音声テーブル31の例を図4に示す。図4に示すように、音声テーブル31には、音声IDと出力する音声とが対応づけられたものである。図4に示す例では、音声ID“101”に音声“今日は曇り時々雨だよ”が対応付けられ、音声ID“201”に音声“傘を持って行った方がいいよ”が対応づけられている。以下、同様である。   The storage unit 11 stores an audio table 31 used by an output processing unit 23 described later. An example of the voice table 31 is shown in FIG. As shown in FIG. 4, the voice table 31 is a table in which a voice ID and a voice to be output are associated with each other. In the example shown in FIG. 4, the voice ID “101” is associated with the voice “Today is cloudy and rainy”, and the voice ID “201” is associated with the voice “It is better to carry an umbrella”. It has been. The same applies hereinafter.

制御部10は、音声認識処理、出力処理、動作処理を含む情報処理装置1の機能を統括して制御するものであり、通信部21、音声認識部22、出力処理部23、および動作処理部24を含む。   The control unit 10 controls the functions of the information processing apparatus 1 including voice recognition processing, output processing, and operation processing, and includes a communication unit 21, a voice recognition unit 22, an output processing unit 23, and an operation processing unit. 24.

通信部21は、外部サーバ(音声認識サーバ2、配信サーバ3、双方向通信サーバ4)との通信を行うものである。なお、外部サーバとは、音声認識サーバ2、配信サーバ3、および双方向通信サーバ4を含むサーバの総称である。上述したように本実施形態では、音声認識サーバ2、および配信サーバ3とはHTTPによる通信、双方向通信サーバ4とはWeb Socketによつ双方向通信により通信している。   The communication unit 21 communicates with external servers (voice recognition server 2, distribution server 3, and bidirectional communication server 4). The external server is a general term for servers including the voice recognition server 2, the distribution server 3, and the bidirectional communication server 4. As described above, in the present embodiment, the voice recognition server 2 and the distribution server 3 communicate with each other by HTTP communication, and the bidirectional communication server 4 communicates with each other by Web Socket.

より詳細には、通信部21は、(1)マイク12から通知された音声データの音声認識サーバ2への送信、(2)音声認識サーバ2による音声認識処理を求める音声認識要求の配信サーバ3への送信、(3)配信サーバ3からの音声認識結果の受信、(4)音声認識サーバ2により生成された音声データの受信、(5)双方向通信サーバ4から音声再生指示の受信を行う。   More specifically, the communication unit 21 (1) transmits the voice data notified from the microphone 12 to the voice recognition server 2, and (2) the voice recognition request distribution server 3 that requests voice recognition processing by the voice recognition server 2. (3) reception of voice recognition results from the distribution server 3, (4) reception of voice data generated by the voice recognition server 2, and (5) reception of voice reproduction instructions from the two-way communication server 4. .

音声認識部22は、マイク12から通知された音声データの音声認識を行い、認識した結果を出力処理部23に通知する。なお、音声認識処理そのものは従来技術を用いて可能であるので、説明は省略する。   The voice recognition unit 22 performs voice recognition of the voice data notified from the microphone 12 and notifies the output processing unit 23 of the recognized result. Note that the voice recognition process itself can be performed using conventional technology, and thus the description thereof is omitted.

出力処理部23は、音声認識部22から通知された音声認識結果に基づく音声出力処理、通信部21から通知された、双方向通信サーバ4から送信された音声再生指示に基づく音声出力処理、通信部21から通知された、配信サーバ3から送信された音声認識結果に基づく音声出力処理を行う。なお、具体的な処理の内容については後述する。   The output processing unit 23 is a voice output process based on a voice recognition result notified from the voice recognition unit 22, a voice output process based on a voice reproduction instruction transmitted from the bidirectional communication server 4 notified from the communication unit 21, and a communication The voice output process based on the voice recognition result transmitted from the distribution server 3 notified from the unit 21 is performed. Details of the processing will be described later.

また、出力処理部23は、音声認識部22から通知された音声認識結果、または配信サーバ3から送信された音声認識結果を動作処理部24に通知する。   Further, the output processing unit 23 notifies the operation processing unit 24 of the voice recognition result notified from the voice recognition unit 22 or the voice recognition result transmitted from the distribution server 3.

動作処理部24は、出力処理部23から通知された音声認識結果に基づいて、情報処理装置1が動作すべき内容を決定し、決定した動作を行うための処理を実行する。例えば、テレビ、エアコン等の家電を制御する動作を行う場合、IR部14に対し、テレビ、エアコンを制御するための赤外線信号を送信させるための指示を通知する。   The operation processing unit 24 determines the content to be operated by the information processing apparatus 1 based on the voice recognition result notified from the output processing unit 23, and executes a process for performing the determined operation. For example, when an operation for controlling home appliances such as a television and an air conditioner is performed, an instruction for transmitting an infrared signal for controlling the television and the air conditioner is notified to the IR unit 14.

〔外部サーバ(音声認識サーバ2、配信サーバ3、双方向通信サーバ4)〕
次に、音声認識サーバ2、配信サーバ3、および双方向通信サーバ4の要部構成について、図3を参照して説明する。図3は、音声認識サーバ2、配信サーバ3、および双方向通信サーバ4の要部構成を示すブロック図である。
[External server (voice recognition server 2, distribution server 3, bidirectional communication server 4)]
Next, the main configuration of the voice recognition server 2, the distribution server 3, and the bidirectional communication server 4 will be described with reference to FIG. FIG. 3 is a block diagram showing a main configuration of the voice recognition server 2, the distribution server 3, and the bidirectional communication server 4.

図3に示すように、音声認識サーバ2は、音声認識部61および合成音声生成部62を含む。また、配信サーバ3は、記憶部51、応答判断処理部52、音声認識要求取得部53、配信情報取得部54、および出力部55を含む。   As shown in FIG. 3, the voice recognition server 2 includes a voice recognition unit 61 and a synthesized voice generation unit 62. The distribution server 3 includes a storage unit 51, a response determination processing unit 52, a voice recognition request acquisition unit 53, a distribution information acquisition unit 54, and an output unit 55.

音声認識サーバ2は、音声認識処理および合成音声の生成処理を行うものである。   The speech recognition server 2 performs speech recognition processing and synthetic speech generation processing.

音声認識部61は、配信サーバ3から通知された音声認識要求に基づいて、情報処理装置1から通知された音声データの音声認識処理を実行する。そして、音声認識結果を配信サーバ3に通知する。   The voice recognition unit 61 executes voice recognition processing of voice data notified from the information processing apparatus 1 based on the voice recognition request notified from the distribution server 3. Then, the voice recognition result is notified to the distribution server 3.

合成音声生成部62は、配信サーバ3から通知された配信情報に基づいて、通知すべき内容を示す合成音声を生成し、音声IDと対応づけて情報処理装置1に通知する。   The synthesized voice generation unit 62 generates synthesized voice indicating the contents to be notified based on the distribution information notified from the distribution server 3, and notifies the information processing apparatus 1 in association with the voice ID.

生成する合成音声の例について、図7を参照して説明する。図7は、配信情報と生成する音声とを対応例を示す図である。図7(a)に示すように、例えば、配信情報が「晴れ」というものであれば、合成音声として「いい天気だね、洗濯日和だよ」を生成する。また、配信情報が「晴れ一時雨」というものであれば、合成音声として「傘を持って行った方がいいよ」を生成する。以下、同様である。   An example of the synthesized speech to be generated will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of correspondence between distribution information and generated voice. As shown in FIG. 7A, for example, if the distribution information is “sunny”, “sounds good weather, weather is good” is generated as synthesized speech. Also, if the distribution information is “temporarily sunny”, “suggest with an umbrella” is generated as a synthesized voice. The same applies hereinafter.

また、図7(b)に示すように、配信情報が「最低気温(明日)0°以下」というものであれば、合成音声として「今夜はすごく寒くなるよ」を生成する。以下、同様である。   Also, as shown in FIG. 7B, if the distribution information is “minimum temperature (tomorrow) 0 ° or less”, “sounds very cold tonight” is generated as a synthesized voice. The same applies hereinafter.

配信サーバ3は、再生すべき音声を決定し、その指示をするものである。   The distribution server 3 determines the sound to be reproduced and gives an instruction for it.

記憶部51は、会話テーブル56等、配信サーバ3で用いる情報を記憶している。会話テーブル56は、音声認識された内容、再生すべき音声、再生条件を対応付けたものである。会話テーブル56の例を図5(a)、(b)に示す。図5(a)の会話テーブル56Aに示すように、認識された音声を示すID(認識音声ID)と再生すべき音声のカテゴリとが対応付けられているとともに、図5(b)の会話テーブル56Bに示すように、カテゴリと再生すべき音声を示す音声ID、条件が対応付けられている。   The storage unit 51 stores information used by the distribution server 3 such as the conversation table 56. The conversation table 56 correlates the speech-recognized content, the sound to be played back, and the playback conditions. An example of the conversation table 56 is shown in FIGS. As shown in the conversation table 56A in FIG. 5A, an ID indicating a recognized voice (recognized voice ID) is associated with a category of voice to be reproduced, and the conversation table in FIG. 5B. As shown to 56B, the audio | voice ID and conditions which show the audio | voice which should reproduce | regenerate with a category are matched.

例えば、火曜日の朝9時に認識された音声が「おはよう」であれば、再生すべき音声として対応するものは、認識音声ID“21(おはよう)”と対応する“天気+生活”のうち、音声ID“101「今日の天気は曇時々雨だよ」”、“201「傘を持って行った方がいいよ」”、“401「今日は燃えるゴミの日だよ」”となる。   For example, if the voice recognized at 9:00 am on Tuesday is “good morning”, the voice corresponding to the voice to be played is the voice of “weather + life” corresponding to the recognized voice ID “21 (good morning)”. The IDs are “101“ Today's weather is cloudy and rainy ””, “201“ You should bring an umbrella ””, “401“ Today is a burning garbage day ”.

また、会話テーブル56Bに優先順位を対応付け、優先順位が高いものがまず選択されるようにしてもよい。   Alternatively, priority may be associated with the conversation table 56B so that a higher priority is first selected.

例えば、電車の遅延を示す通知の優先順位を最も高くし、どのような状況であっても、まず、電車の遅延を通知するというものであってもよい。   For example, the notification priority indicating the train delay may be set to the highest priority, and the train delay may be notified first in any situation.

また、同じ内容の情報について、詳細情報と簡易情報とで対応付ける時間の条件を変えるという構成であってもよい。例えば、「6時」に対応づけられている天気予報は詳細情報で、「7時半」に対応づけられている天気予報は簡易情報というようにしてもよい。   Moreover, the structure of changing the conditions of the time matched with detailed information and simple information about the information of the same content may be sufficient. For example, the weather forecast associated with “6 o'clock” may be detailed information, and the weather forecast associated with “7:30” may be simplified information.

また、再生指示の履歴と優先順位を利用して生成すべき通知を応答判断しても良い。すなわち、優先度の高いものを通知した後に同じ問いかけがあった場合は、履歴を見て既に生成した通知とは異なる音声を再生指示するように判断しても良い。   In addition, a notification to be generated may be determined using a history of the reproduction instruction and the priority order. That is, when the same question is made after notifying a high priority item, it may be determined to instruct to reproduce a sound different from the already generated notification by looking at the history.

これにより、ユーザに対して同じ返答が繰り返されることを避けることができる。例えば、「おはよう」に対し「優先順位高:天気情報」「優先順位中:路線情報」「優先順位低:ゴミ情報」が対応付けられていると仮定する。この場合に、「おはよう」という音声を検知し、「天気情報」について通知した後、再度「おはよう」という音声を検知した場合、履歴を確認し、「天気予報」について再度配信することなく、例えば「路線情報」を通知する。   Thereby, it can avoid repeating the same reply with respect to a user. For example, it is assumed that “good morning” is associated with “high priority: weather information”, “priority medium: route information”, and “low priority: garbage information”. In this case, after detecting the voice "Good morning" and notifying about "weather information", if the voice "Good morning" is detected again, without checking the history and distributing "Weather forecast" again, for example, “Route information” is notified.

また、音声認識サーバ2で「もう一度」という問いかけを認識した場合は、履歴を確認し、一定時間内の最新の音声を再生指示しても良い。これにより、ユーザが聞き取れなかった場合、同じ配信情報をユーザに通知することができる。   In addition, when the voice recognition server 2 recognizes the question “again”, the history may be confirmed and an instruction to reproduce the latest voice within a certain time may be given. Thereby, when a user cannot hear, the same delivery information can be notified to a user.

また、情報処理装置1で「もう一度」という問いかけを認識した場合は、履歴を確認し、一定時間以内の再生内容をもう一度再生しても良い。これにより、ユーザが聞き取れなかった場合に、同じ配信情報をユーザに通知することを、情報処理装置1単体で実行することができる。   Further, when the information processing apparatus 1 recognizes the question “again”, the history may be confirmed and the reproduction content within a predetermined time may be reproduced again. As a result, when the user cannot hear, the information processing apparatus 1 alone can execute notification of the same distribution information to the user.

応答判断処理部52は、会話テーブル56を用いて、音声認識サーバ2から通知された音声認識結果と対応する再生音声を決定し、再生すべき音声を示す音声IDを双方向通信サーバ4に通知する。   The response determination processing unit 52 uses the conversation table 56 to determine the reproduction voice corresponding to the voice recognition result notified from the voice recognition server 2 and notifies the bidirectional communication server 4 of the voice ID indicating the voice to be played back. To do.

音声認識要求取得部53は、情報処理装置1から通知された音声認識要求を音声認識サーバ2に通知する。   The voice recognition request acquisition unit 53 notifies the voice recognition server 2 of the voice recognition request notified from the information processing apparatus 1.

配信情報取得部54は、外部機器より配信情報(ニュース、天気予報、交通情報等)を取得し、その内容を音声認識サーバ2に通知する。   The distribution information acquisition unit 54 acquires distribution information (news, weather forecast, traffic information, etc.) from an external device and notifies the content to the voice recognition server 2.

出力部55は、音声認識サーバ2から通知された音声認識結果を情報処理装置1に通知する。   The output unit 55 notifies the information processing apparatus 1 of the voice recognition result notified from the voice recognition server 2.

双方向通信サーバ4は、情報処理装置1と常時接続し、音声の再生指示等を送信する。   The two-way communication server 4 is always connected to the information processing apparatus 1 and transmits an audio reproduction instruction and the like.

〔音声応答システム100における処理の流れ〕
次に、図8、9を参照して音声応答システム100における処理の流れについて説明する。図8、9は、音声応答システム100における処理の流れを示すシーケンス図である。
[Processing Flow in Voice Response System 100]
Next, the flow of processing in the voice response system 100 will be described with reference to FIGS. 8 and 9 are sequence diagrams showing the flow of processing in the voice response system 100. FIG.

〔合成音声格納処理〕
本実施形態に係る音声応答システム100では、情報処理装置1より発話される合成音声が、予め音声認識サーバ2で生成され、情報処理装置1に格納されている。まず、この予め合成音声が格納される処理の流れについて、図8を参照して説明する。
[Synthetic voice storage processing]
In the voice response system 100 according to the present embodiment, synthesized speech uttered by the information processing apparatus 1 is generated in advance by the voice recognition server 2 and stored in the information processing apparatus 1. First, the flow of processing for storing synthesized speech in advance will be described with reference to FIG.

図8に示すように、配信サーバ3の配信情報取得部54が、外部機器から配信情報を取得すると(S801)、配信情報取得部54は、取得した配信情報を音声認識サーバ2の合成音声生成部62に通知する(S802)。   As illustrated in FIG. 8, when the distribution information acquisition unit 54 of the distribution server 3 acquires distribution information from an external device (S801), the distribution information acquisition unit 54 generates the synthesized voice of the voice recognition server 2 using the acquired distribution information. The unit 62 is notified (S802).

配信情報を取得した合成音声生成部62は、上述したように、配信情報に基づいて再生すべき合成音声を生成する(S803)。そして、生成した合成音声に再生音声IDを付し、再生音声IDを配信サーバ3に通知する(S804)。   The synthesized voice generation unit 62 that has acquired the distribution information generates a synthesized voice to be reproduced based on the distribution information as described above (S803). Then, a reproduction voice ID is added to the generated synthesized voice, and the reproduction voice ID is notified to the distribution server 3 (S804).

再生音声IDを通知された配信サーバ3は、双方向通信サーバ4に通知し(S805)、双方向通信サーバ4は、双方向通信にて情報処理装置1に再生音声IDを通知する(S806)。   The distribution server 3 notified of the reproduction voice ID notifies the bidirectional communication server 4 (S805), and the bidirectional communication server 4 notifies the information processing apparatus 1 of the reproduction voice ID by bidirectional communication (S806). .

再生音声IDを取得した情報処理装置1は、音声認識サーバ2に対し当該再生音声IDが示す合成音声の送信を求める合成音声送信指示を音声認識サーバ2に通知し(S807)、合成音声を取得する(S808)。   The information processing apparatus 1 that has acquired the reproduction voice ID notifies the voice recognition server 2 of a synthetic voice transmission instruction for requesting the voice recognition server 2 to transmit the synthetic voice indicated by the reproduction voice ID (S807), and acquires the synthetic voice. (S808).

そして、情報処理装置1は、再生音声IDと合成音声とを対応付けて記憶する(S809)。以上で、合成音声を情報処理装置1に格納する処理が終了する。   The information processing apparatus 1 stores the reproduction voice ID and the synthesized voice in association with each other (S809). Thus, the process for storing the synthesized speech in the information processing apparatus 1 is completed.

〔応答処理〕
次に、ユーザが情報処理装置1に対し何らかの発話を行った場合の処理の流れについて、図9を参照して説明する。
[Response processing]
Next, the flow of processing when the user utters some sort of information processing apparatus 1 will be described with reference to FIG.

図9に示すように、情報処理装置1において音声を検知すると(S901)、通信部21は、検知した音声を示す音声データを音声認識サーバ2に通知する(S902)とともに、音声認識要求を配信サーバ3に通知する(S903)。そして、配信サーバ3は、通知された音声認識要求を音声認識サーバ2に通知する(S904)。音声認識要求を通知された音声認識サーバ2は、情報処理装置1から通知された音声データの音声認識処理を実行する(S905)。   As shown in FIG. 9, when voice is detected in the information processing apparatus 1 (S901), the communication unit 21 notifies the voice recognition server 2 of voice data indicating the detected voice (S902) and distributes a voice recognition request. The server 3 is notified (S903). The distribution server 3 notifies the voice recognition server 2 of the notified voice recognition request (S904). The voice recognition server 2 notified of the voice recognition request executes voice recognition processing of the voice data notified from the information processing apparatus 1 (S905).

また、通信部21の処理と並行して、音声認識部22は、検知した音声の音声認識処理を実行する(S906)。   In parallel with the processing of the communication unit 21, the voice recognition unit 22 executes voice recognition processing of the detected voice (S906).

音声認識部22による音声認識処理が成功し、かつ、即答すべき音声がある場合、出力処理部23は、即答すべき音声をスピーカ13から出力させる(S907)。例えば、「おはよう」に対し「おはよう」と応える挨拶等は、即答すべき音声となる。   When the voice recognition process by the voice recognition unit 22 is successful and there is a voice to be answered immediately, the output processing unit 23 outputs the voice to be answered immediately from the speaker 13 (S907). For example, a greeting that answers “good morning” to “good morning” is a voice that should be answered immediately.

一方、音声認識サーバ2の音声認識部61で実行されていた音声認識処理の結果も、音声認識サーバ2から配信サーバ3に通知され(S908)、配信サーバ3から情報処理装置1に通知される(S909)。音声認識結果は、認識できた音声そのものを通知するのではなく、認識できた音声を示すIDを通知する。   On the other hand, the result of the voice recognition processing executed by the voice recognition unit 61 of the voice recognition server 2 is also notified from the voice recognition server 2 to the distribution server 3 (S908), and is notified from the distribution server 3 to the information processing apparatus 1. (S909). The voice recognition result does not notify the recognized voice itself, but notifies the ID indicating the recognized voice.

ここで、情報処理装置1の出力処理部23は、音声認識サーバ2から通知された音声認識結果が、音声認識部22に実行した音声認識結果と同じであれば、何の処理も行わない。また、ステップS906での音声認識処理で音声認識ができず、音声認識サーバ2において音声認識処理が成功した場合は、音声認識サーバ2からの音声認識結果が通知されたときに、出力処理部23は、即答すべき音声をスピーカ13から出力させる(S907’)。   Here, the output processing unit 23 of the information processing apparatus 1 does not perform any process if the voice recognition result notified from the voice recognition server 2 is the same as the voice recognition result executed by the voice recognition unit 22. If the voice recognition process cannot be performed in the voice recognition process in step S906 and the voice recognition server 2 succeeds, the output processing unit 23 receives the voice recognition result from the voice recognition server 2. Causes the speaker 13 to output a voice to be answered immediately (S907 ′).

なお、音声認識部22による音声認識結果と音声認識サーバ2による音声認識結果とが異なる場合は、音声認識部22を優先させてもよいし、音声認識部22による音声認識結果に対応した音声を出力後、音声認識サーバ2による音声認識結果に対応した音声を、訂正音声とともに出力してもよい(例えば、音声認識部22において「おはよう」と認識し、音声認識サーバ2において「おやすみ」と認識した場合、「おはよう」と出力し、その後、「さっきは間違えたよ。おやすみ」というようにする)。   In addition, when the speech recognition result by the speech recognition unit 22 and the speech recognition result by the speech recognition server 2 are different, the speech recognition unit 22 may be prioritized, or speech corresponding to the speech recognition result by the speech recognition unit 22 may be used. After the output, the voice corresponding to the voice recognition result by the voice recognition server 2 may be output together with the corrected voice (for example, the voice recognition unit 22 recognizes “good morning” and the voice recognition server 2 recognizes “good night”. If you do, output "Good morning" and then "I made a mistake earlier. Good night").

また、ステップS906での音声認識処理が終了する前に、ステップS909の音声認識結果を受信した場合は、受信した音声認識結果に対応する発話処理を行ってもよい。すなわち、先に取得した音声認識結果を用いて発話処理を行う構成であってもよい。   In addition, when the speech recognition result in step S909 is received before the speech recognition process in step S906 ends, the speech process corresponding to the received speech recognition result may be performed. That is, the speech processing may be performed using the voice recognition result acquired previously.

さらに、ステップS908で音声認識結果を通知された配信サーバ3は、応答判断処理部52において、音声認識結果に対応する再生音声を決定する(S910)。そして、決定した再生音声を示す再生音声IDを双方向通信サーバ4に通知し(S911)、双方向通信サーバ4は、情報処理装置1に対し再生音声IDが示す音声を再生させる指示を通知する(S912)。   Furthermore, the distribution server 3 notified of the voice recognition result in step S908 determines the playback voice corresponding to the voice recognition result in the response determination processing unit 52 (S910). Then, the reproduction voice ID indicating the determined reproduction voice is notified to the bidirectional communication server 4 (S911), and the bidirectional communication server 4 notifies the information processing apparatus 1 of an instruction to reproduce the voice indicated by the reproduction voice ID. (S912).

再生音声IDを通知された情報処理装置1は、該再生音声IDが示す音声を再生する(S913)。ここで再生される音声は、予め音声認識サーバ2によって生成されていた合成音声である。以上で、ユーザが何らかの発話を行った場合の処理が終了する。   The information processing apparatus 1 notified of the reproduction audio ID reproduces the audio indicated by the reproduction audio ID (S913). The voice reproduced here is a synthesized voice generated in advance by the voice recognition server 2. Thus, the process in the case where the user has made some utterance is completed.

〔付記事項1〕
上述した実施形態では、音声認識サーバ2において合成音声を生成する構成としたが、情報処理装置1に合成音声を生成する機能を持たせてもよい。これにより、音声認識サーバ2から合成音声が通知されてない場合であっても、情報処理装置1で生成した合成音声を出力することにより対応することができる。
[Appendix 1]
In the above-described embodiment, the voice recognition server 2 generates a synthesized voice. However, the information processing apparatus 1 may have a function of generating a synthesized voice. Thereby, even when the synthesized speech is not notified from the speech recognition server 2, it is possible to cope by outputting the synthesized speech generated by the information processing apparatus 1.

〔付記事項2〕
また、上述した実施形態では、音声の内容に応じた処理を実行する構成を説明したが、これに限られず、音声の種類(男女、大人、子供、高齢者)に応じて、実行する処理を異ならせる(出力する音声の内容や口調(音声の高さや速さ等)を異ならせる)構成であってもよい。例えば、取得した音声が子供であれば、天気予報のみを通知し、大人の男性(父親)であれば、天気予報に加えて交通情報も通知し、大人の女性(母親)であれば、天気予報に加えて買い物情報も通知するという構成であってもよい。また、大人に対する通知は、やや早口(音声の速度大)で行い、高齢者に対する通知は、ゆっくり(音声の速度小)と行うという構成であってもよい。
[Appendix 2]
In the above-described embodiment, the configuration for executing the process according to the content of the sound has been described. However, the present invention is not limited to this, and the process to be executed is performed according to the type of sound (gender, adult, child, elderly). It may be configured differently (the contents and tone of the voice to be output (speech height, speed, etc.) are different). For example, if the acquired voice is a child, only the weather forecast is notified, if it is an adult man (father), traffic information is also notified in addition to the weather forecast, and if it is an adult woman (mother), the weather It may be configured to notify shopping information in addition to the forecast. Further, the notification to the adult may be performed with a slightly quick mouth (speech speed), and the notification to the elderly may be performed slowly (speech speed).

〔小括〕
以上のように、本実施形態では、情報処理装置1と音声認識サーバ2との2つ装置で音声認識処理を行うとともに、認識した音声に対し即答すべき音声がある場合は、まず即答し、さらに、配信サーバ3で決定した再生音声を情報処理装置1で出力させるものである。検知した音声、これに対する応答、その他の条件の例を一覧としてまとめると図6のようになる。
〔Brief Summary〕
As described above, in the present embodiment, the voice recognition processing is performed by the two apparatuses, the information processing apparatus 1 and the voice recognition server 2, and when there is a voice that should be answered immediately with respect to the recognized voice, first, Furthermore, the information processing apparatus 1 outputs the reproduced sound determined by the distribution server 3. FIG. 6 shows a list of examples of detected voices, responses to them, and other conditions.

図6に示すように、「おはよう」という音声を認識した場合は、即答すべき音声として「おはよう」をまず出力し、さらに、天気(「今日の天気は曇時々雨だよ」「傘を持って行った方がいいよ」)や、生活(「今日は燃えるゴミの日だよ」)の情報を示す再生音声を出力する。   As shown in FIG. 6, when the voice "Good morning" is recognized, "Good morning" is first output as a voice to be answered immediately, and the weather ("Today's weather is cloudy and rainy") "Have an umbrella And playback audio that shows information about life ("Today is a burning garbage day").

また、認識可能な音声はあいさつに限られるものではなく、家電を制御するための指示(「エアコンつけて(消して)」)や、交通状況を尋ねるもの(「電車はどう?」)などであってもよい。   In addition, recognizable voice is not limited to greetings, such as instructions to control home appliances ("turn on air conditioner (turn off)"), or ask about traffic conditions ("How about a train?") There may be.

また、再生音声は、予め情報処理装置1に格納されている。これにより、双方向通信サーバ4から再生指示を送信するのみで再生音声を再生することが可能となり、ユーザの発話に対する応答を早めることができる。   In addition, the reproduced sound is stored in the information processing apparatus 1 in advance. As a result, it is possible to reproduce the reproduced sound only by transmitting a reproduction instruction from the bidirectional communication server 4, and it is possible to speed up the response to the user's utterance.

〔実施形態2〕
本発明の他の実施形態について説明する。上述した実施形態では、音声認識サーバ2が音声認識処理を実行する場合について限定していない。これに対し、本実施形態では、音声認識サーバ2が音声認識する場合を制御するものである。
[Embodiment 2]
Another embodiment of the present invention will be described. In embodiment mentioned above, it does not limit about the case where the speech recognition server 2 performs a speech recognition process. On the other hand, in this embodiment, the case where the speech recognition server 2 recognizes speech is controlled.

具体的には、音声認識部22がスリープ機能を有し、スリープ機能がオンの状態、すなわち、検知した音声を音声認識サーバ2に通知しない場合は、音声認識部22は、情報処理装置1で検知した音声を通信部21が音声認識サーバ2に通知しないように制御するものである。   Specifically, when the voice recognition unit 22 has a sleep function and the sleep function is on, that is, when the detected voice is not notified to the voice recognition server 2, the voice recognition unit 22 is the information processing device 1. Control is performed so that the communication unit 21 does not notify the voice recognition server 2 of the detected voice.

そして、特定の音声を検知したときに、スリープ機能をオフとし、情報処理装置1で検知した音声を通信部21が音声認識サーバ2に通知するように制御する。   Then, when a specific sound is detected, the sleep function is turned off, and control is performed so that the communication unit 21 notifies the sound recognition server 2 of the sound detected by the information processing apparatus 1.

これにより、外部のサーバである音声認識サーバ2に、ユーザが意図しない音声が通知されてしまうことを防止することができる。   Thereby, it is possible to prevent a voice unintended by the user from being notified to the voice recognition server 2 which is an external server.

〔付記事項3〕
また、通信部21が、情報処理装置1が検知した音声を音声認識サーバ2に送信する場合は、音や光等でユーザに対し報知する構成を備えていてもよい。これにより、ユーザに対し、発した音声が音声認識サーバ2に通知されていることを認識させることができる。
[Appendix 3]
Moreover, when the communication part 21 transmits the audio | voice detected by the information processing apparatus 1 to the audio | voice recognition server 2, you may provide the structure which alert | reports to a user with a sound, light, etc. Thereby, it can be made to recognize that the uttered audio | voice is notified to the audio | voice recognition server 2 with respect to a user.

〔実施形態3〕
本発明のさらに他の実施形態について、図10〜図13に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
The following will describe still another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態は、音声に応じて認識閾値を変えるものである。例えば、挨拶のような音声であれば、認識閾値を低く設定して容易に会話が可能となるようにするとともに、家電の制御等の音声であれば、認識閾値を高く設定して、家電の誤動作を防止するものである。   In the present embodiment, the recognition threshold value is changed according to the voice. For example, if the voice is like a greeting, the recognition threshold is set low so that the conversation can be easily performed. If the voice is used for controlling home appliances, the recognition threshold is set high. This is to prevent malfunction.

〔音声認識部の構成〕
図10に、本実施形態における音声認識部22の要部構成を示す。図10に示すように、音声認識部22は、音声取得部201、音声判定部202、音声認識処理部203、確度算出部204、対話処理実行部205、認識結果決定部206、および判定テーブル207を含む。
[Configuration of voice recognition unit]
In FIG. 10, the principal part structure of the speech recognition part 22 in this embodiment is shown. As illustrated in FIG. 10, the voice recognition unit 22 includes a voice acquisition unit 201, a voice determination unit 202, a voice recognition processing unit 203, a probability calculation unit 204, a dialogue processing execution unit 205, a recognition result determination unit 206, and a determination table 207. including.

判定テーブル207の例を図13に示す。図13に示すように、判定テーブル207は、認識フレーズ(認識した音声)、認識番号、認識した音声に対応する動作、認識確度閾値、対話確認要否、および対話確認フレーズが対応付けられたテーブルである。例えば、認識した音声が「おはよう」であれば、認識番号が「10」、認識した音声に対応する動作が「おはよう音声再生」、認識確度閾値が「60」、対話確認要否が「不要」、対話確認フレーズが「無し」と対応付けられている。また、認識した音声が「エアコンつけて」であれば、認識番号が「14」、認識した音声に対応する動作が「エアコンON」、認識確度閾値が「80」、対話確認要否が「要」、および対話確認フレーズが「エアコンつけてもいい?」と対応付けられている。これ以外のものについても同様である。   An example of the determination table 207 is shown in FIG. As illustrated in FIG. 13, the determination table 207 is a table in which a recognition phrase (recognized voice), a recognition number, an operation corresponding to the recognized voice, a recognition accuracy threshold value, necessity of dialogue confirmation, and a dialogue confirmation phrase are associated with each other. It is. For example, if the recognized voice is “good morning”, the recognition number is “10”, the action corresponding to the recognized voice is “good morning voice playback”, the recognition accuracy threshold is “60”, and whether the dialogue confirmation is necessary is “unnecessary”. The dialogue confirmation phrase is associated with “none”. If the recognized voice is “turn on air conditioner”, the recognition number is “14”, the operation corresponding to the recognized voice is “air conditioner ON”, the recognition accuracy threshold is “80”, and whether or not the dialogue confirmation is necessary is “necessary”. "And the dialogue confirmation phrase are associated with" Can I turn on the air conditioner? " The same applies to other items.

これにより、音声に対応して、認識確度閾値、および対話確認要否を設定することができるので、音声の内容に応じて認識の精度を変えることができる。図13に示す判定テーブル207のように設定すれば、単なる挨拶については、認識の精度が多少低くても、会話を成立させることができるとともに、清掃を実行させる場合は、認識精度が少し上げて確実なものとすることができ、さらに、エアコンの制御のように重要なものは認識の精度を上げるだけでなく、再確認を求めることにより、さらに確実性を向上させることができる。   Thereby, since the recognition accuracy threshold value and the necessity for dialogue confirmation can be set corresponding to the voice, the accuracy of recognition can be changed according to the contents of the voice. If the determination table 207 shown in FIG. 13 is set, a simple greeting can be established even if the recognition accuracy is somewhat low, and the recognition accuracy is slightly increased when cleaning is performed. In addition, not only the accuracy of the air conditioner control such as the control of the air conditioner can be recognized, but also the reliability can be further improved by asking for reconfirmation.

音声取得部201は、マイク12から音声データを取得し、音声判定部202に通知する。音声判定部202は、通知された音声データが、人による発話なのか、単なる物音なのかを判定する。具体的には、音声データが示す音声の大きさ、周波数および長さが閾値を超える場合を音声と判定する。そして、音声と判定した音声データを音声認識処理部203に通知する。   The sound acquisition unit 201 acquires sound data from the microphone 12 and notifies the sound determination unit 202 of the sound data. The sound determination unit 202 determines whether the notified sound data is an utterance by a person or a simple sound. Specifically, when the volume, frequency, and length of the voice indicated by the voice data exceed a threshold value, the voice is determined. Then, the voice recognition processing unit 203 is notified of the voice data determined to be voice.

音声認識処理部203は、通知された音声データについて音声認識処理を実行し、音声認識結果を確度算出部204に通知する。確度算出部204は、音声認識処理部203が実行した音声認識処理の認識確度を算出し対話処理実行部205に通知する。なお、認識確度とは、認識結果となりえる複数の候補との比較が可能な相対的な値あるいは、認識結果を絶対的に判断する値を算出することにより、音声認識した結果がどのくらい確からしいかを示す数値である。   The voice recognition processing unit 203 performs voice recognition processing on the notified voice data, and notifies the accuracy calculation unit 204 of the voice recognition result. The accuracy calculation unit 204 calculates the recognition accuracy of the speech recognition processing executed by the speech recognition processing unit 203 and notifies the dialog processing execution unit 205 of the recognition accuracy. Note that the recognition accuracy refers to how probable the speech recognition result is by calculating a relative value that can be compared with multiple candidates that can be recognized results or a value that absolutely determines the recognition result. Is a numerical value indicating

対話処理実行部205は、判定テーブル207を用いて、音声認識処理部203が認識処理を実行した結果である認識音声について、確度算出部204が算出した認識確度が閾値を超えているかと判定するとともに、対話確認が必要か否かを判定する。そして、対話確認が必要と判定した場合は、対話処理を実行する。具体的には、判定テーブル207において対応付けられている対話確認フレーズを出力させ、回答を確認する。そして、対話処理の結果を認識結果決定部206に通知する。   The dialogue processing execution unit 205 uses the determination table 207 to determine whether the recognition accuracy calculated by the accuracy calculation unit 204 exceeds the threshold for the recognized speech that is the result of the recognition processing performed by the speech recognition processing unit 203. At the same time, it is determined whether dialogue confirmation is necessary. If it is determined that dialogue confirmation is necessary, dialogue processing is executed. Specifically, the dialogue confirmation phrase associated with the determination table 207 is output, and the answer is confirmed. Then, the recognition result determination unit 206 is notified of the result of the dialogue processing.

認識結果決定部206は、対話処理実行部205の結果に基づいて、認識結果を決定し、出力する。   The recognition result determination unit 206 determines and outputs a recognition result based on the result of the dialogue processing execution unit 205.

〔処理の流れ〕
次に、音声に応じて認識閾値を変える場合の処理の流れについて、図11、図12を参照して説明する。図11、図12は、音声に応じて認識閾値を変える場合の処理の流れを示すフローチャートである。
[Process flow]
Next, the flow of processing when changing the recognition threshold according to the sound will be described with reference to FIGS. FIG. 11 and FIG. 12 are flowcharts showing the flow of processing when the recognition threshold is changed according to the voice.

図10に示すように、情報処理装置1が音声を検知すると(S1101)、音声判定部202は、音声の大きさ、長さが所定値以上か否かを判定する(S1102)。音声の大きさおよび長さが所定値以上であれば(S1102でYES)、音声認識処理部203は音声認識処理を実行する(S1103)。そして、音声認識処理が成功すれば(S1104でYES)、音声認識部22は動作テーブルを読み込み(S1105)、対話処理実行部205は認識確度が閾値を超えているか否かを判定する(S1106)。   As shown in FIG. 10, when the information processing apparatus 1 detects sound (S1101), the sound determination unit 202 determines whether or not the sound volume and length are equal to or greater than a predetermined value (S1102). If the size and length of the voice are equal to or greater than the predetermined value (YES in S1102), the voice recognition processing unit 203 executes a voice recognition process (S1103). If the voice recognition process is successful (YES in S1104), the voice recognition unit 22 reads the operation table (S1105), and the dialogue process execution unit 205 determines whether the recognition accuracy exceeds the threshold (S1106). .

そして、認識確度が閾値を超えていれば、確度算出部204は、対話確認の要否を判定し(S1107)、必要であれば(S1107でYES)、対話確認処理を実行する(S1108)。対話確認処理の詳細については後述する。そして、対話確認処理が終了すると、または対話確認が不要の場合(S1107でNO)、認識した音声に対応する動作を実行する(S1109)。   If the recognition accuracy exceeds the threshold, the accuracy calculation unit 204 determines whether or not dialogue confirmation is necessary (S1107), and if necessary (YES in S1107), executes the dialogue confirmation processing (S1108). Details of the dialogue confirmation process will be described later. Then, when the dialogue confirmation process is completed or when the dialogue confirmation is unnecessary (NO in S1107), an operation corresponding to the recognized voice is executed (S1109).

対話確認処理の流れについて、図12を参照して説明する。対話処理実行部205は、まず、出力処理部23を介し、スピーカ13から対話確認フレーズを出力させる(S1201)。そして、音声を検知すると(S1202)、音声判定部202が検知した音声の大きさ、および長さが所定値以上か否かを判定する(S1203)。音声の大きさ、および長さが所定値以上であれば(S1203でYES)、音声認識処理部203は音声認識処理を実行する(S1204)。音声認識処理に成功すると(S1205でYES)、対話処理実行部205は、音声の内容が肯定回答か否かを判定し(S1206)、肯定回答であれば(S1206でYES)、ステップS1109に進む。一方、否定回答であれば(S1206でNO)、ステップS1101へ戻る。以上が、対話処理の流れである。   The flow of the dialogue confirmation process will be described with reference to FIG. The dialogue processing execution unit 205 first outputs a dialogue confirmation phrase from the speaker 13 via the output processing unit 23 (S1201). When a voice is detected (S1202), it is determined whether the volume and length of the voice detected by the voice determination unit 202 are equal to or greater than a predetermined value (S1203). If the volume and length of the voice are equal to or greater than the predetermined value (YES in S1203), the voice recognition processing unit 203 executes a voice recognition process (S1204). If the speech recognition process is successful (YES in S1205), the dialogue processing execution unit 205 determines whether or not the content of the speech is an affirmative answer (S1206). If the affirmative answer (YES in S1206), the process proceeds to step S1109. . On the other hand, if the answer is negative (NO in S1206), the process returns to step S1101. The above is the flow of dialogue processing.

〔実施形態4〕
本発明のさらに他の実施形態について、図14に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 4]
The following will describe still another embodiment of the present invention with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態では、情報処理装置1が音声を出力するタイミングについて、ユーザが情報処理装置1に話しかけたときとなっている。具体的な処理の流れについて図14を参照して説明する。図14は、ユーザが情報処理装置1に話しかけたときに、情報処理装置1が発話する処理の流れを示すシーケンス図である。   In the present embodiment, the timing when the information processing apparatus 1 outputs sound is when the user speaks to the information processing apparatus 1. A specific processing flow will be described with reference to FIG. FIG. 14 is a sequence diagram illustrating a flow of processing that the information processing apparatus 1 speaks when the user speaks to the information processing apparatus 1.

図14に示すように、まず、情報処理装置1に合成音声が格納される(S1401〜S1404、図8に示す合成音声の格納処理と同様)。なお、合成音声の格納は必須ではない。   As shown in FIG. 14, first, synthesized speech is stored in the information processing apparatus 1 (S1401 to S1404, similar to the synthesized speech storage process shown in FIG. 8). Note that storing synthesized speech is not essential.

そして、情報処理装置1において音声を検知すると(S1405)、音声データが情報処理装置1から音声認識サーバ2に通知される(S1406)とともに、音声認識要求が情報処理装置1から配信サーバ3に通知され(S1407)、配信サーバ3から音声認識サーバ2へ通知される(S1408)。そして、音声認識サーバ2において音声認識処理が実行される(S1409)。そして、音声認識処理の結果、音声であると判定されると、音声認識結果が音声認識サーバ2から配信サーバ3に通知され(S1411)、配信サーバ3から情報処理装置1に通知される(S1412)。   When voice is detected in the information processing apparatus 1 (S1405), voice data is notified from the information processing apparatus 1 to the voice recognition server 2 (S1406), and a voice recognition request is notified from the information processing apparatus 1 to the distribution server 3. Then (S1407), the distribution server 3 notifies the voice recognition server 2 (S1408). Then, voice recognition processing is executed in the voice recognition server 2 (S1409). If it is determined as a result of the voice recognition processing that the voice is a voice, the voice recognition result is notified from the voice recognition server 2 to the distribution server 3 (S1411), and the information is sent from the distribution server 3 to the information processing apparatus 1 (S1412). ).

音声認識結果を通知された情報処理装置1は、音声認識結果に対応した動作(光る、振動する等)を行う(S1413)。さらに、配信サーバ3から双方向通信サーバ4に音声再生指示が通知され(S1414)、双方向通信サーバ4から情報処理装置1に音声再生指示が通知されると(S1415)、情報処理装置1は音声を出力(発話)する(S1416)。   The information processing apparatus 1 that has been notified of the voice recognition result performs an operation corresponding to the voice recognition result (light, vibration, etc.) (S1413). Furthermore, when the voice reproduction instruction is notified from the distribution server 3 to the bidirectional communication server 4 (S1414) and the voice reproduction instruction is notified from the bidirectional communication server 4 to the information processing apparatus 1 (S1415), the information processing apparatus 1 Voice is output (spoken) (S1416).

なお、音声認識処理を情報処理装置1でも行う(S1410)構成であってもよい。   In addition, the structure which performs voice recognition processing also in the information processing apparatus 1 (S1410) may be sufficient.

〔実施形態5〕
本発明のさらに他の実施形態について、図15に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 5]
The following will describe still another embodiment of the present invention with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態では、情報処理装置1が音声を出力するタイミングについて、情報処理装置1の近傍に人を検知したときとなっている。具体的な処理の流れについて図15を参照して説明する。図15は、情報処理装置1の近傍に人を検知したときに、情報処理装置1が発話する処理の流れを示すシーケンス図である。   In the present embodiment, the timing at which the information processing apparatus 1 outputs sound is when a person is detected in the vicinity of the information processing apparatus 1. A specific processing flow will be described with reference to FIG. FIG. 15 is a sequence diagram illustrating a flow of processing performed by the information processing apparatus 1 when a person is detected in the vicinity of the information processing apparatus 1.

図15に示すように、まず、情報処理装置1に合成音声が格納される(S1501〜S1504、図8に示す合成音声の格納処理と同様)。なお、合成音声の格納は必須ではない。   As shown in FIG. 15, first, synthesized speech is stored in the information processing apparatus 1 (S1501 to S1504, similar to the synthesized speech storage process shown in FIG. 8). Note that storing synthesized speech is not essential.

そして、情報処理装置1において音声を検知すると(S1505)、音声データが情報処理装置1から音声認識サーバ2に通知される(S1506)とともに、音声認識要求が情報処理装置1から配信サーバ3に通知され(S1507)、配信サーバ3から音声認識サーバ2へ通知される(S1508)。そして、音声認識サーバ2において音声認識処理が実行される(S1509)。そして、音声認識処理の結果、人の存在(気配)を示す音であると判定されると、音声認識結果が音声認識サーバ2から配信サーバ3に通知され(S1511)、配信サーバ3から双方向通信サーバ4に音声再生指示が通知され(S1512)、双方向通信サーバ4から情報処理装置1に音声再生指示が通知される(S1513)。そして、情報処理装置1は音声を出力(発話)する(S1514)。   When voice is detected in the information processing apparatus 1 (S1505), voice data is notified from the information processing apparatus 1 to the voice recognition server 2 (S1506), and a voice recognition request is notified from the information processing apparatus 1 to the distribution server 3. (S1507), the distribution server 3 notifies the voice recognition server 2 (S1508). Then, voice recognition processing is executed in the voice recognition server 2 (S1509). Then, if it is determined as a result of the voice recognition process that the sound indicates the presence (attention) of a person, the voice recognition result is notified from the voice recognition server 2 to the distribution server 3 (S1511), and the distribution server 3 bidirectionally A voice reproduction instruction is notified to the communication server 4 (S1512), and a voice reproduction instruction is notified from the bidirectional communication server 4 to the information processing apparatus 1 (S1513). Then, the information processing apparatus 1 outputs (speaks) voice (S1514).

なお、音声認識処理を情報処理装置1でも行う(S1510)構成であってもよい。   In addition, the structure which performs voice recognition processing also in the information processing apparatus 1 (S1510) may be sufficient.

〔実施形態6〕
本発明のさらに他の実施形態について、図16に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 6]
The following will describe still another embodiment of the present invention with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態では、情報処理装置1が音声を出力するタイミングについて、情報処理装置1から呼びかけを行い、呼びかけに対する応答があった場合となっている。具体的な処理の流れについて図16を参照して説明する。図16は、情報処理装置1から呼びかけを行う場合における情報処理装置1の発話処理の流れを示すシーケンス図である。   In the present embodiment, the information processing apparatus 1 makes a call from the information processing apparatus 1 with respect to the timing of outputting the sound, and there is a response to the call. A specific processing flow will be described with reference to FIG. FIG. 16 is a sequence diagram showing the flow of the speech process of the information processing apparatus 1 when calling from the information processing apparatus 1.

図16に示すように、まず、情報処理装置1に合成音声Aが格納される(S1601〜S1604、図8に示す合成音声の格納処理と同様)。なお、合成音声Aの格納は必須ではない。   As shown in FIG. 16, first, the synthesized speech A is stored in the information processing apparatus 1 (S1601 to S1604, similar to the synthesized speech storage process shown in FIG. 8). Note that the storage of the synthesized speech A is not essential.

さらに、音声認識サーバ2から情報処理装置1に合成音声B(呼びかけ用の音声)が通知され、情報処理装置1に格納される(S1605)。   Furthermore, the synthesized speech B (calling voice) is notified from the voice recognition server 2 to the information processing apparatus 1 and stored in the information processing apparatus 1 (S1605).

そして、配信サーバ3から双方向通信サーバ4に呼びかけ指示(呼びかけ用の合成音声を再生させる指示)が通知され(S1606)、双方向通信サーバ4から情報処理装置1に呼びかけ指示が通知される(S1607)。この呼びかけ指示は、ランダムに実行されてもよいし、定期的に実行されるものであってもよい。また、優先順位の高い内容については、その呼びかけ指示の頻度を高くしても良い。   Then, the distribution server 3 notifies the bidirectional communication server 4 of a call instruction (instruction for reproducing the synthesized voice for call) (S1606), and the bidirectional communication server 4 notifies the information processing apparatus 1 of the call instruction ( S1607). This call instruction may be executed randomly or may be executed periodically. In addition, for the contents with high priority, the frequency of calling instructions may be increased.

呼びかけ指示が通知された情報処理装置1は、呼びかけ用音声(合成音声B)を出力する(S1608)。   The information processing apparatus 1 notified of the call instruction outputs a call voice (synthesized voice B) (S1608).

そして、情報処理装置1において音声を検知すると(S1609)、音声データが情報処理装置1から音声認識サーバ2に通知される(S1610)とともに、音声認識要求が情報処理装置1から配信サーバ3に通知され(S1611)、配信サーバ3から音声認識サーバ2へ通知される(S1612)。そして、音声認識サーバ2において音声認識処理が実行される(S1613)。そして、音声認識処理の結果、呼びかけに対して応答している音声であると判定すると、音声認識結果が音声認識サーバ2から配信サーバ3に通知され(S1615)、配信サーバ3から双方向通信サーバ4に音声再生指示が通知され(S1616)、双方向通信サーバ4から情報処理装置1に音声再生指示が通知される(S1617)。そして、音声再生指示が通知された情報処理装置1は音声を出力(発話)する(S1618)。   When the information processing apparatus 1 detects voice (S1609), voice data is notified from the information processing apparatus 1 to the voice recognition server 2 (S1610), and a voice recognition request is notified from the information processing apparatus 1 to the distribution server 3. Then (S1611), the distribution server 3 notifies the voice recognition server 2 (S1612). Then, voice recognition processing is executed in the voice recognition server 2 (S1613). If it is determined that the voice is a response to the call as a result of the voice recognition process, the voice recognition server 2 notifies the distribution server 3 of the voice recognition result (S1615). 4 is notified of the voice reproduction instruction (S1616), and the voice reproduction instruction is notified from the bidirectional communication server 4 to the information processing apparatus 1 (S1617). Then, the information processing apparatus 1 notified of the voice reproduction instruction outputs (speaks) voice (S1618).

なお、音声認識処理を情報処理装置1でも行う(S1614)構成であってもよい。   In addition, the structure which performs voice recognition processing also in the information processing apparatus 1 (S1614) may be sufficient.

〔実施形態7〕
情報処理装置1、音声認識サーバ2、配信サーバ3、および双方向通信サーバ4の制御ブロック(制御部10(通信部21、音声認識部22、出力処理部23、動作処理部24)、応答判断処理部52、音声認識要求取得部53、配信情報取得部54、出力部55)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Embodiment 7]
Control blocks (control unit 10 (communication unit 21, voice recognition unit 22, output processing unit 23, operation processing unit 24), response determination of information processing device 1, voice recognition server 2, distribution server 3, and bidirectional communication server 4 The processing unit 52, the voice recognition request acquisition unit 53, the distribution information acquisition unit 54, and the output unit 55) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU ( It may be realized by software using a Central Processing Unit.

後者の場合、情報処理装置1、音声認識サーバ2、配信サーバ3、双方向通信サーバ4は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the information processing apparatus 1, the voice recognition server 2, the distribution server 3, and the two-way communication server 4 include a CPU that executes instructions of a program that is software that implements each function, and the above-described program and various data are stored in a computer (or A ROM (Read Only Memory) or a storage device (these are referred to as “recording media”) recorded so as to be readable by a CPU), a RAM (Random Access Memory) for expanding the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る音声認識システム(音声応答システム100)は、音声を取得し、取得した音声に対応した処理を行う音声処理装置(情報処理装置1)と、該音声処理装置と通信可能なサーバ(音声認識サーバ2、配信サーバ3、双方向通信サーバ4)とにより構成された音声認識システムであって、上記音声処理装置には、上記取得した音声の認識処理を行う第1音声認識手段(音声認識部22)と、上記取得した音声を上記サーバに送信する音声送信手段(通信部21)と、上記サーバから上記音声の認識結果を取得する音声認識結果取得手段(通信部21)と、上記第1音声認識手段が認識処理を行った結果である第1認識結果と、上記音声認識結果取得手段が取得した、上記サーバによる音声認識処理の結果である第2認識結果とに基づいて、該音声に対応した処理を実行する音声対応手段(出力処理部23)と、が備えられており、上記サーバには、上記音声処理装置が取得した音声を受信する音声受信手段(音声認識部61)と、上記音声受信手段が受信した上記音声の認識処理を行う第2音声認識手段(音声認識部61)と、上記第2音声認識手段が認識処理を行った結果を上記音声処理装置に送信する音声認識結果送信手段(出力部55)と、が備えられていることを特徴としている。
[Summary]
The speech recognition system (speech response system 100) according to aspect 1 of the present invention acquires speech and performs processing corresponding to the acquired speech, and can communicate with the speech processing device. 1 is a voice recognition system configured with various servers (voice recognition server 2, distribution server 3, two-way communication server 4), and the voice processing device includes a first voice recognition for performing a recognition process of the acquired voice. Means (voice recognition unit 22), voice transmission means (communication unit 21) for transmitting the acquired voice to the server, and voice recognition result acquisition means (communication unit 21) for acquiring the voice recognition result from the server. A first recognition result that is a result of the recognition process performed by the first voice recognition unit, and a second recognition result that is a result of the voice recognition process performed by the server and acquired by the voice recognition result acquisition unit. And an audio processing unit (output processing unit 23) that executes processing corresponding to the audio based on the above, and the server receives audio acquired by the audio processing device. (Speech recognition unit 61), second speech recognition unit (speech recognition unit 61) that performs recognition processing of the speech received by the speech reception unit, and results of recognition processing performed by the second speech recognition unit And voice recognition result transmission means (output unit 55) for transmission to the voice processing device.

上記の構成によれば、音声処理装置が取得した音声について、音声処理装置とサーバとの両方で認識処理を行うことができる。よって、音声処理装置のみで音声認識を行う場合と比較して、音声認識可能な語彙数を増加させることができる。また、サーバにより音声認識可能な語彙を更新することにより、音声認識可能な語彙の常に最新とすることもできる。また、サーバにより音声認識可能な語彙のみ更新すればよいので更新が容易となる。   According to said structure, the recognition process can be performed in both a voice processing apparatus and a server about the voice which the voice processing apparatus acquired. Therefore, the number of vocabulary that can be recognized by speech can be increased as compared with the case where speech recognition is performed only by the speech processing apparatus. Further, by updating the vocabulary that can be recognized by the server, the vocabulary that can be recognized by voice can always be updated. Moreover, since only the vocabulary that can be recognized by the server needs to be updated, the update is facilitated.

また、音声処理装置とサーバとの両方で音声認識処理を行うことにより、音声認識そのものの精度も向上させることができる。   In addition, by performing the voice recognition process in both the voice processing device and the server, the accuracy of the voice recognition itself can be improved.

なお、音声対応手段が実行する処理としては、例えば、音声による応答が挙げられる。   In addition, as a process which an audio | voice corresponding | compatible means performs, the response by an audio | voice is mentioned, for example.

本発明の態様2に係る音声認識システムでは、上記態様1において、上記サーバには、上記音声処理装置に実行させる、上記第2認識結果と対応する処理を決定する処理内容決定手段と、上記処理内容決定手段が決定した処理内容を上記音声処理装置に送信する処理内容送信手段と、が備えられ、上記音声処理装置の上記音声対応手段は、上記第1認識結果に対応した処理を実行した後、上記処理内容決定手段が決定した処理を実行するものであってもよい。   In the speech recognition system according to aspect 2 of the present invention, in the aspect 1, in the aspect 1, the server causes the speech processing device to execute a process content determination unit that determines a process corresponding to the second recognition result, and the process Processing content transmitting means for transmitting the processing content determined by the content determining means to the speech processing device, and the speech correspondence means of the speech processing device executes processing corresponding to the first recognition result The process determined by the process content determination means may be executed.

上記の構成によれば、音声対応手段が実行する処理を2段階に分けることができる。これにより、即応すべき処理とそうでない処理とを分けて実行することが可能となる。例えば、取得した音声が挨拶だった場合、返す挨拶は、即応すべき処理として音声処理装置が認識処理した結果に基づいて行い、サーバが認識処理した結果に基づいて付加情報を通知するということが可能となる。   According to said structure, the process which an audio | voice corresponding | compatible means performs can be divided into two steps. As a result, it is possible to execute processing that should be promptly performed and processing that is not so separately. For example, when the acquired voice is a greeting, a greeting to be returned is performed based on a result of recognition processing by the voice processing device as a process to be promptly performed, and additional information is notified based on a result of recognition processing of the server. It becomes possible.

本発明の態様3に係る音声認識システムでは、上記態様2において、上記処理内容決定手段は、上記処理内容が複数存在する場合に、それぞれの処理内容に優先順位を設定し、優先順位の高い処理内容を、上記音声処理装置に実行させる処理内容として決定するものであってもよい。   In the speech recognition system according to aspect 3 of the present invention, in the above aspect 2, when there are a plurality of the processing contents, the processing content determination means sets a priority order for each processing content, and performs processing with a high priority order. The content may be determined as processing content to be executed by the voice processing device.

上記の構成によれば、優先順位に基づいて処理内容を決定することができるので、緊急性の高い処理を優先して処理することが可能となる。例えば、優先順位の高い処理として、電車の遅延情報の通知を設定すれば、まず、電車の遅延情報の通知を行うということができる。   According to said structure, since the processing content can be determined based on a priority, it becomes possible to give priority to a highly urgent process. For example, if notification of train delay information is set as a high priority process, it can be said that notification of train delay information is performed first.

本発明の態様4に係る音声認識システムでは、上記態様1〜3において、上記サーバには、上記音声処理装置に配信する情報を取得する配信情報取得手段と、上記配信情報取得手段が取得した配信情報を音声情報として出力するための合成音声を生成する合成音声生成手段と、上記合成音声生成手段が生成した合成音声を上記音声処理装置に送信する合成音声送信手段と、が備えられているものであってもよい。   In the speech recognition system according to aspect 4 of the present invention, in the above aspects 1 to 3, the server has a distribution information acquisition unit that acquires information distributed to the voice processing device, and a distribution acquired by the distribution information acquisition unit. A synthesized speech generating means for generating synthesized speech for outputting information as speech information; and a synthesized speech transmitting means for transmitting the synthesized speech generated by the synthesized speech generating means to the speech processing apparatus. It may be.

上記の構成によれば、音声により配信情報を通知することができる。   According to said structure, delivery information can be notified with an audio | voice.

本発明の態様5に係る音声認識システムでは、上記態様4において、上記合成音声送信手段は、上記音声処理装置の上記音声対応手段が処理を実行する前に、上記合成音声を該音声処理装置に送信するものであってもよい。   In the speech recognition system according to aspect 5 of the present invention, in the aspect 4, the synthesized speech transmitting means sends the synthesized speech to the speech processing apparatus before the speech corresponding means of the speech processing apparatus executes the process. You may transmit.

上記の構成によれば、合成音声が予め音声処理装置に格納されているので、合成音声の出力を行うとき、その都度、サーバから取得する場合と比較して、速やかに処理することができる。   According to the above configuration, since the synthesized speech is stored in the speech processing device in advance, when the synthesized speech is output, it can be processed promptly as compared with the case where it is obtained from the server each time.

本発明の態様6に係る音声認識システムは、上記態様1〜5において、上記第1音声認識手段、および上記第2音声認識手段は、認識結果の精度を示す認識結果精度が閾値を超えた場合、当該認識結果を自手段による認識処理の結果として出力するものであり、該閾値は、認識結果となる音声の内容によって異なるものであってもよい。   In the speech recognition system according to aspect 6 of the present invention, in the above aspects 1 to 5, the first speech recognition unit and the second speech recognition unit have a recognition result accuracy indicating the accuracy of the recognition result exceeding a threshold value. The recognition result is output as a result of the recognition process by its own means, and the threshold value may be different depending on the content of the speech that is the recognition result.

上記の構成によれば、音声の内容に応じて、認識結果の精度を示す認識結果精度の閾値を変えることができるので、重要と考えられる音声の認識処理を、より確実なものとすることができる。   According to the above configuration, the threshold value of the recognition result accuracy indicating the accuracy of the recognition result can be changed according to the content of the speech, so that the speech recognition processing considered to be important can be made more reliable. it can.

本発明の態様7に係る音声認識システムでは、上記態様1〜6において、上記音声処理装置には、所定の条件を満たした場合、上記音声送信手段による音声の送信を許可する音声送信制御手段が備えられ、上記音声送信手段は、上記音声送信制御手段の許可があった場合のみ、上記音声を上記サーバに送信するものであってもよい。   In the speech recognition system according to aspect 7 of the present invention, in the above aspects 1 to 6, the speech processing apparatus includes speech transmission control means for permitting speech transmission by the speech transmitting means when a predetermined condition is satisfied. The voice transmitting means may be provided so that the voice is transmitted to the server only when the voice transmission control means is permitted.

上記の構成によれば、音声送信手段による音声の送信を制御することができるので、サーバに送信されることを意図していない音声が、サーバに送信されてしまうことを防止することができる。   According to said structure, since transmission of the audio | voice by an audio | voice transmission means can be controlled, it can prevent that the audio | voice which is not intended to be transmitted to a server is transmitted to a server.

本発明の態様8に係る音声認識システムでは、上記態様1〜7において、上記音声処理装置には、上記音声送信手段が上記音声を上記サーバに送信するときに、報知を行う報知手段が備えられているものであってもよい。   In the speech recognition system according to aspect 8 of the present invention, in the above aspects 1 to 7, the speech processing device is provided with notifying means for performing notification when the speech transmitting means transmits the speech to the server. It may be.

上記の構成によれば、音声がサーバに送信されていることを、ユーザに認識させることができる。   According to said structure, a user can be made to recognize that the audio | voice is transmitted to the server.

本発明の態様9に係る発話システムは、ユーザに対し発話する発話装置と、該発話装置と通信可能なサーバとにより構成された発話システムであって、上記発話装置には、音を取得する音取得手段と、上記音取得手段が取得した音を上記サーバに送信する音送信手段と、上記サーバから上記音の判定結果を取得する判定結果取得手段と、上記判定結果取得手段が取得した判定結果が、人がいることを示すものである場合、ユーザに対し発話を行う発話手段と、が備えられ、上記サーバには、上記発話装置が取得した音を受信する音受信手段と、上記音受信手段が取得した音が、人がいることを示すものであるか否かを判定する音判定手段と、上記音判定手段が判定した結果を上記発話装置に送信する判定結果送信手段と、が備えられていることを特徴としている。   An utterance system according to an aspect 9 of the present invention is an utterance system including an utterance device that utters a user and a server that can communicate with the utterance device. An acquisition unit; a sound transmission unit that transmits the sound acquired by the sound acquisition unit to the server; a determination result acquisition unit that acquires the determination result of the sound from the server; and the determination result acquired by the determination result acquisition unit , A speech means for speaking to the user when there is a person, and the server includes a sound reception means for receiving the sound acquired by the speech device, and the sound reception Sound determination means for determining whether or not the sound acquired by the means indicates that there is a person, and determination result transmission means for transmitting a result determined by the sound determination means to the utterance device. Being It is characterized in.

上記の構成によれば、人がいることをサーバによって検知されたときに、発話するので、誰も人がいないときに発話してしまうということを防止することができる。   According to said structure, since it speaks when a server detects that there is a person, it can prevent that it speaks when there is no person.

本発明の態様10に係る発話システムは、ユーザに対し発話する発話装置と、該発話装置と通信可能なサーバとにより構成された発話システムであって、上記発話装置には、呼びかけを行う発話手段と、音声を取得する音声取得手段と、上記音声取得手段が取得した音声を上記サーバに送信する音声送信手段と、上記サーバから上記音声の認識結果を取得する認識結果取得手段と、が備えられ、上記サーバには、上記発話装置が取得した音声を受信する音声受信手段と、上記音声受信手段が取得した音声の認識処理を行う音声認識手段と、上記音声認識手段が認識した結果を上記発話装置に送信する認識結果送信手段と、が備えられ、上記発話装置の上記発話手段は、上記認識結果取得手段が取得した認識結果が、上記呼びかけに対応する返答であることを示すものである場合、ユーザに対し発話を行うことを特徴としている。   An utterance system according to an aspect 10 of the present invention is an utterance system including an utterance device that utters a user and a server that can communicate with the utterance device, and the utterance unit that makes a call to the utterance device. Voice acquisition means for acquiring voice, voice transmission means for transmitting the voice acquired by the voice acquisition means to the server, and recognition result acquisition means for acquiring the recognition result of the voice from the server. The server includes a voice receiving unit that receives the voice acquired by the utterance device, a voice recognition unit that performs recognition processing of the voice acquired by the voice receiving unit, and a result of recognition by the voice recognition unit. A recognition result transmitting means for transmitting to the device, wherein the utterance means of the utterance device returns a response that the recognition result acquired by the recognition result acquisition means corresponds to the call. If it is an indication that it is characterized by performing the speech to the user.

上記の構成によれば、呼びかけに対し返答があった場合に発話するので、誰も人がいないときに発話してしまうということを防止することができる。   According to said structure, since it speaks when there is a reply with respect to a call, it can prevent that it speaks when there is no person.

本発明の態様11に係る音声認識システムは、音声を取得し、取得した音声に対する音声認識処理を行う音声処理装置と、該音声処理装置と通信可能なサーバとにより構成された音声認識システムであって、上記音声処理装置には、上記取得した音声の音声認識処理を行う第1音声認識手段と、上記取得した音声を上記サーバに送信する音声送信手段と、上記サーバから、上記サーバによる上記音声の音声認識処理の結果である第2認識結果および該第2認識結果に対応付けられた音声応答処理内容を取得する音声認識結果取得手段と、上記第1音声認識手段が音声認識処理を行った結果である第1認識結果に対応付けられた応答を音声出力すると共に、上記音声認識結果取得手段が上記サーバから取得した、上記第2認識結果に対応付けられた上記音声応答処理内容を音声出力する音声対応手段と、が備えられており、上記サーバには、上記音声処理装置が取得した音声を受信する音声受信手段と、上記音声受信手段が受信した上記音声の音声認識処理を行い、上記第2認識結果を生成する第2音声認識手段と、上記第2音声認識手段が音声認識処理を行った結果である上記第2認識結果を上記音声処理装置に送信する音声認識結果送信手段と、が備えられており、さらに、上記音声処理装置は、スリープ機能を有しており、上記スリープ機能が設定されている場合、上記音声送信手段は、上記音声送信手段が取得した上記音声を上記サーバに送信せず、上記音声対応手段は、上記第1音声認識手段が音声認識処理を行った結果である上記第1認識結果に対応付けられた応答を音声出力する。   A speech recognition system according to an aspect 11 of the present invention is a speech recognition system that includes a speech processing apparatus that acquires speech and performs speech recognition processing on the acquired speech, and a server that can communicate with the speech processing apparatus. The voice processing device includes a first voice recognition unit that performs voice recognition processing of the acquired voice, a voice transmission unit that transmits the acquired voice to the server, and a voice from the server. The voice recognition result acquisition means for acquiring the second recognition result that is the result of the voice recognition process and the voice response process content associated with the second recognition result, and the first voice recognition means performs the voice recognition process. A response associated with the first recognition result as a result is output as a voice, and the voice recognition result acquisition unit acquires the response associated with the second recognition result acquired from the server. Voice response means for outputting the voice response processing contents as voice, and the server includes voice reception means for receiving voice acquired by the voice processing device, and the voice reception means received by the voice reception means. A second voice recognition unit that performs voice recognition processing of the voice and generates the second recognition result; and the second recognition result that is a result of the voice recognition processing performed by the second voice recognition unit is sent to the voice processing device. Voice recognition result transmission means for transmitting, and further, the voice processing device has a sleep function, and when the sleep function is set, the voice transmission means The voice acquired by the means is not transmitted to the server, and the voice handling means sends a response associated with the first recognition result, which is a result of the voice recognition processing performed by the first voice recognition means. To output.

上記の構成によれば、サーバにユーザが意図しない音声が通知されてしまうことを防止することができる。   According to said structure, it can prevent that the audio | voice which a user does not intend is notified to a server.

本発明の態様12に係る音声認識システムは、上記態様11において、上記音声処理装置は、上記スリープ機能の設定状態をユーザに報知するものであってもよい。   In the speech recognition system according to aspect 12 of the present invention, in the aspect 11, the speech processing device may notify the user of the setting state of the sleep function.

上記の構成によれば、ユーザに対し音声がサーバに通知されるか否かを認識させることができる。   According to said structure, it can be made to recognize whether an audio | voice is notified to a server with respect to a user.

本発明の態様13に係る音声認識システムは、上記態様12において、上記音声処理装置は、上記報知を光で行うものであってもよい。   In the speech recognition system according to aspect 13 of the present invention, in the aspect 12, the speech processing device may perform the notification by light.

上記の構成によれば、ユーザに対し音声がサーバに通知されていることを認識させることができる。   According to said structure, it can be made to recognize that the audio | voice is notified to the server with respect to the user.

本発明の態様14に係る音声認識システムは、上記態様11〜13の何れかにおいて、上記音声処理装置は、特定の音声を取得したときに上記スリープ機能を解除するものであってもよい。   In the speech recognition system according to aspect 14 of the present invention, in any of the above aspects 11 to 13, the speech processing device may cancel the sleep function when specific speech is acquired.

上記の構成によれば、特定の音声を取得したときにスリープ機能をオフとすることができる。   According to said structure, when a specific audio | voice is acquired, a sleep function can be turned off.

本発明の態様15に係る音声処理装置は、音声を取得し、取得した音声に対する音声認識処理を行う音声処理装置であって、上記取得した音声の音声認識処理を行う第1音声認識手段と、上記取得した音声を、自装置と通信可能なサーバに送信する音声送信手段と、上記サーバから、上記サーバによる上記音声の音声認識処理の結果である第2認識結果および該第2認識結果に対応付けられた音声応答処理内容を取得する音声認識結果取得手段と、上記第1音声認識手段が音声認識処理を行った結果である第1認識結果に対応付けられた応答を音声出力すると共に、上記音声認識結果取得手段が上記サーバから取得した、上記第2認識結果に対応付けられた上記音声応答処理内容を音声出力する音声対応手段と、を備え、さらに、取得した上記音声を上記音声送信手段が上記サーバに送信しないスリープ機能を有しており、上記スリープ機能が設定されている場合、上記音声送信手段は、上記音声送信手段が取得した上記音声を上記サーバに送信せず、上記音声対応手段は、上記第1音声認識手段が音声認識処理を行った結果である上記第1認識結果に対応付けられた応答を音声出力する。   A speech processing device according to aspect 15 of the present invention is a speech processing device that acquires speech and performs speech recognition processing on the acquired speech, and includes first speech recognition means that performs speech recognition processing of the acquired speech, Corresponding to the second recognition result and the second recognition result as a result of the voice recognition processing of the voice by the server from the server, voice transmitting means for transmitting the acquired voice to a server capable of communicating with the own device A voice recognition result acquisition unit for acquiring the attached voice response processing content, and a voice output of a response associated with the first recognition result which is a result of the voice recognition processing performed by the first voice recognition unit, and Voice response means for outputting the voice response processing contents associated with the second recognition result acquired by the voice recognition result acquisition means from the server. If the voice transmission means has a sleep function that does not send the voice to the server, and the sleep function is set, the voice transmission means sends the voice acquired by the voice transmission means to the server. Instead, the voice corresponding unit outputs a response corresponding to the first recognition result, which is a result of the voice recognition process performed by the first voice recognition unit.

上記の構成によれば、上記態様11と同様の効果を奏する。   According to said structure, there exists an effect similar to the said aspect 11. FIG.

本発明の各態様に係る音声認識システム(音声処理装置、サーバ)は、コンピュータによって実現してもよく、この場合には、コンピュータを上記音声認識システムが備える各手段として動作させることにより上記音声認識システムをコンピュータにて実現させる音声認識しシステムの制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The speech recognition system (speech processing device, server) according to each aspect of the present invention may be realized by a computer. In this case, the speech recognition is performed by operating the computer as each unit included in the speech recognition system. A voice recognition system control program for realizing the system by a computer and a computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、人の発話を認識し、それに対して応答する音声認識システムに広く利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be widely used for a speech recognition system that recognizes a human speech and responds thereto.

1 情報処理装置(音声処理装置、発話装置)
2 音声認識サーバ(サーバ)
3 配信サーバ(サーバ)
4 双方向通信サーバ(サーバ、処理内容送信手段)
21 通信部(音声受信手段、音声送信手段、音声認識結果取得手段)
22 音声認識部(音声受信手段、第1音声認識手段、音声送信制御手段)
23 出力処理部(音声対応手段、発話手段)
52 応答判断処理部(処理内容決定手段)
54 配信情報取得部(配信情報取得手段)
55 出力部(音声認識結果送信手段)
61 音声認識部(第2音声認識手段)
62 合成音声生成部(合成音声生成手段、合成音声送信手段)
100 音声応答システム(音声認識システム、発話システム)
1 Information processing device (voice processing device, speech device)
2 Voice recognition server (server)
3 Distribution server (server)
4. Two-way communication server (server, processing content transmission means)
21 Communication unit (voice receiving means, voice transmitting means, voice recognition result acquiring means)
22 Voice recognition unit (voice receiving means, first voice recognition means, voice transmission control means)
23 Output processing unit (voice correspondence means, speech means)
52 Response determination processing unit (processing content determination means)
54 Distribution Information Acquisition Unit (Distribution Information Acquisition Unit)
55 Output unit (voice recognition result transmission means)
61 Voice recognition unit (second voice recognition means)
62 Synthetic voice generation unit (synthetic voice generation means, synthetic voice transmission means)
100 Voice response system (voice recognition system, speech system)

Claims (5)

音声を取得し、取得した音声に対する音声認識処理を行う音声処理装置と、該音声処理装置と通信可能なサーバとにより構成された音声認識システムであって、
上記音声処理装置には、
上記取得した音声の音声認識処理を行う第1音声認識手段と、
上記取得した音声を上記サーバに送信する音声送信手段と、
上記サーバから、上記サーバによる上記音声の音声認識処理の結果である第2認識結果および該第2認識結果に対応付けられた音声応答処理内容を取得する音声認識結果取得手段と、
上記第1音声認識手段が音声認識処理を行った結果である第1認識結果に対応付けられた応答を音声出力すると共に、上記音声認識結果取得手段が上記サーバから取得した、上記第2認識結果に対応付けられた上記音声応答処理内容を音声出力する音声対応手段と、が備えられており、
上記サーバには、
上記音声処理装置が取得した音声を受信する音声受信手段と、
上記音声受信手段が受信した上記音声の音声認識処理を行い、上記第2認識結果を生成する第2音声認識手段と、
上記第2音声認識手段が音声認識処理を行った結果である上記第2認識結果を上記音声処理装置に送信する音声認識結果送信手段と、
が備えられており、
さらに、上記音声処理装置は、スリープ機能を有しており、
上記スリープ機能が設定されている場合、
上記音声送信手段は、上記音声送信手段が取得した上記音声を上記サーバに送信せず、
上記音声対応手段は、上記第1音声認識手段が音声認識処理を行った結果である上記第1認識結果に対応付けられた応答を音声出力する音声認識システム。
A voice recognition system configured by a voice processing device that acquires voice and performs voice recognition processing on the acquired voice, and a server that can communicate with the voice processing device,
The voice processing device includes
First speech recognition means for performing speech recognition processing of the acquired speech;
Voice transmitting means for transmitting the acquired voice to the server;
Voice recognition result acquisition means for acquiring, from the server, a second recognition result that is a result of the voice recognition processing of the voice by the server and a voice response processing content associated with the second recognition result;
The second recognition result obtained by outputting the response associated with the first recognition result, which is a result of the voice recognition processing performed by the first voice recognition means, and obtained by the voice recognition result acquisition means from the server. Voice corresponding means for outputting the voice response processing contents associated with the voice,
In the above server,
Voice receiving means for receiving the voice acquired by the voice processing device;
A second voice recognition means for performing voice recognition processing of the voice received by the voice reception means and generating the second recognition result;
Voice recognition result transmitting means for transmitting the second recognition result, which is a result of the voice recognition processing performed by the second voice recognition means, to the voice processing device;
Is provided,
Furthermore, the audio processing device has a sleep function,
If the sleep function is set,
The voice transmission means does not send the voice acquired by the voice transmission means to the server,
The voice recognition system, wherein the voice corresponding means outputs a response associated with the first recognition result, which is a result of the voice recognition processing performed by the first voice recognition means.
上記音声処理装置は、上記スリープ機能の設定状態をユーザに報知する請求項1に記載の音声認識システム。   The voice recognition system according to claim 1, wherein the voice processing device notifies a user of a setting state of the sleep function. 上記音声処理装置は、上記報知を光で行う請求項2に記載の音声認識システム。   The voice recognition system according to claim 2, wherein the voice processing device performs the notification by light. 上記音声処理装置は、特定の音声を取得したときに上記スリープ機能を解除する請求項1〜3のいずれか1項に記載の音声認識システム。   The voice recognition system according to any one of claims 1 to 3, wherein the voice processing device releases the sleep function when specific voice is acquired. 音声を取得し、取得した音声に対する音声認識処理を行う音声処理装置であって、
上記取得した音声の音声認識処理を行う第1音声認識手段と、
上記取得した音声を、自装置と通信可能なサーバに送信する音声送信手段と、
上記サーバから、上記サーバによる上記音声の音声認識処理の結果である第2認識結果および該第2認識結果に対応付けられた音声応答処理内容を取得する音声認識結果取得手段と、
上記第1音声認識手段が音声認識処理を行った結果である第1認識結果に対応付けられた応答を音声出力すると共に、上記音声認識結果取得手段が上記サーバから取得した、上記第2認識結果に対応付けられた上記音声応答処理内容を音声出力する音声対応手段と、を備え、
さらに、取得した上記音声を上記音声送信手段が上記サーバに送信しないスリープ機能を有しており、上記スリープ機能が設定されている場合、
上記音声送信手段は、上記音声送信手段が取得した上記音声を上記サーバに送信せず、
上記音声対応手段は、上記第1音声認識手段が音声認識処理を行った結果である上記第1認識結果に対応付けられた応答を音声出力する音声処理装置。
A voice processing device that acquires voice and performs voice recognition processing on the acquired voice,
First speech recognition means for performing speech recognition processing of the acquired speech;
Voice transmission means for transmitting the acquired voice to a server capable of communicating with the own device;
Voice recognition result acquisition means for acquiring, from the server, a second recognition result that is a result of the voice recognition processing of the voice by the server and a voice response processing content associated with the second recognition result;
The second recognition result obtained by outputting the response associated with the first recognition result, which is a result of the voice recognition processing performed by the first voice recognition means, and obtained by the voice recognition result acquisition means from the server. Voice corresponding means for outputting the voice response processing content associated with the voice,
Further, when the voice transmission means has a sleep function that does not transmit the acquired voice to the server, and the sleep function is set,
The voice transmission means does not send the voice acquired by the voice transmission means to the server,
The voice processing device, wherein the voice handling unit outputs a response associated with the first recognition result, which is a result of the voice recognition process performed by the first voice recognition unit.
JP2015103920A 2015-05-21 2015-05-21 Speech recognition system and speech processing apparatus Active JP5973030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015103920A JP5973030B2 (en) 2015-05-21 2015-05-21 Speech recognition system and speech processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015103920A JP5973030B2 (en) 2015-05-21 2015-05-21 Speech recognition system and speech processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013057324A Division JP5753212B2 (en) 2013-03-19 2013-03-19 Speech recognition system, server, and speech processing apparatus

Publications (2)

Publication Number Publication Date
JP2015146055A true JP2015146055A (en) 2015-08-13
JP5973030B2 JP5973030B2 (en) 2016-08-17

Family

ID=53890263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015103920A Active JP5973030B2 (en) 2015-05-21 2015-05-21 Speech recognition system and speech processing apparatus

Country Status (1)

Country Link
JP (1) JP5973030B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173295A1 (en) * 2017-03-24 2018-09-27 ヤマハ株式会社 User interface device, user interface method, and sound operation system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168349A (en) * 2011-02-15 2012-09-06 Alpine Electronics Inc Speech recognition system and retrieval system using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168349A (en) * 2011-02-15 2012-09-06 Alpine Electronics Inc Speech recognition system and retrieval system using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173295A1 (en) * 2017-03-24 2018-09-27 ヤマハ株式会社 User interface device, user interface method, and sound operation system
US10592204B2 (en) 2017-03-24 2020-03-17 Yamaha Corporation User interface device and method, and sound-enabled operation system

Also Published As

Publication number Publication date
JP5973030B2 (en) 2016-08-17

Similar Documents

Publication Publication Date Title
JP5753212B2 (en) Speech recognition system, server, and speech processing apparatus
JP6942755B2 (en) Interaction methods, devices, devices and storage media between smart audio devices
US20170330566A1 (en) Distributed Volume Control for Speech Recognition
WO2016052018A1 (en) Home appliance management system, home appliance, remote control device, and robot
US10803872B2 (en) Information processing apparatus for transmitting speech signals selectively to a plurality of speech recognition servers, speech recognition system including the information processing apparatus, and information processing method
CN111263962B (en) Information processing apparatus and information processing method
JP2019117623A (en) Voice dialogue method, apparatus, device and storage medium
KR20190075800A (en) Intelligent personal assistant interface system
CN110832579A (en) Last mile equalization
JP6783339B2 (en) Methods and devices for processing audio
CN106067996B (en) Voice reproduction method, voice dialogue device
JP6659514B2 (en) Electronic device and control method thereof
WO2017141530A1 (en) Information processing device, information processing method and program
JP6559192B2 (en) Control device, input / output device, control method, and control program
CN109195016B (en) Intelligent terminal equipment-oriented voice interaction method and terminal system for video barrage and intelligent terminal equipment
JP7095684B2 (en) Information processing equipment, information processing method, program
KR20230133864A (en) Systems and methods for handling speech audio stream interruptions
JPWO2020003851A1 (en) Audio processing device, audio processing method and recording medium
JP5973030B2 (en) Speech recognition system and speech processing apparatus
JP6151112B2 (en) REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, SERVER, AND SYSTEM
JP2006331251A (en) Voice guidance device, voice guidance method and voice guidance system
JP6621593B2 (en) Dialog apparatus, dialog system, and control method of dialog apparatus
WO2016052520A1 (en) Conversation device
CN111292749A (en) Session control method and device of intelligent voice platform
CN109147783A (en) Audio recognition method, medium and system based on K song system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160713

R150 Certificate of patent or registration of utility model

Ref document number: 5973030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150