JP6281202B2 - Response control system and center - Google Patents
Response control system and center Download PDFInfo
- Publication number
- JP6281202B2 JP6281202B2 JP2013158282A JP2013158282A JP6281202B2 JP 6281202 B2 JP6281202 B2 JP 6281202B2 JP 2013158282 A JP2013158282 A JP 2013158282A JP 2013158282 A JP2013158282 A JP 2013158282A JP 6281202 B2 JP6281202 B2 JP 6281202B2
- Authority
- JP
- Japan
- Prior art keywords
- response
- center
- voice data
- answer
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004044 response Effects 0.000 title claims description 250
- 238000000034 method Methods 0.000 claims description 89
- 230000008569 process Effects 0.000 claims description 77
- 238000004891 communication Methods 0.000 claims description 51
- 238000012545 processing Methods 0.000 claims description 38
- 239000003795 chemical substances by application Substances 0.000 description 30
- 230000004048 modification Effects 0.000 description 17
- 238000012986 modification Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、ユーザの入力した音声データに対して自動応答する技術に関する。 The present invention relates to a technique for automatically responding to voice data input by a user.
従来、ユーザから入力された音声データに対して音声認識処理を実施し、その認識処理結果に応じた種々の情報をユーザに提供する応答システムがある(例えば特許文献1)。この特許文献1に開示の応答システムは、車載器、及び車両外部に設けられて当該車載器と無線通信を実施する情報センターを備えている。
2. Description of the Related Art Conventionally, there is a response system that performs voice recognition processing on voice data input from a user and provides the user with various information according to the recognition processing result (for example, Patent Document 1). The response system disclosed in
特許文献1に開示の応答システムでは、車載器は、ユーザの音声データを取得して情報センターに当該音声データを送信する。一方、情報センターは、当該音声データに対して音声認識処理を実施して、その認識処理結果に応じた応答音声データを車載器に返送する。そして、応答音声データの返送を受けた車載器では、当該応答音声データに従った音声出力を行う。
In the response system disclosed in
一方、携帯電話機においても、携帯電話会社の管理する情報センターと携帯電話機が無線通信することによって、ユーザの音声入力に対して種々の情報を提供する応答システムが普及してきている。なお、携帯電話機に限らず、様々な場面、環境においてユーザの入力した音声に対して自動応答する応答システムは利用されつつある。 On the other hand, response systems that provide various kinds of information in response to voice input by users by wireless communication between an information center managed by a mobile phone company and the mobile phone have become widespread. In addition, not only a mobile phone but a response system that automatically responds to a voice input by a user in various scenes and environments is being used.
近年では、車載器と携帯電話機とを連携させて動作させる技術も開発されている。このように、車載器と携帯電話機とを連携して動作させる場合には、車載器を介して複数の応答システムが利用可能な構成となる。 In recent years, a technique for operating an in-vehicle device and a mobile phone in cooperation with each other has also been developed. Thus, when operating an onboard equipment and a mobile telephone in cooperation, it becomes the composition which can use a plurality of response systems via an onboard equipment.
しかしながら、このような構成ではユーザは、車載器を操作するなどして、複数の応答システムのうち、目的に応じた応答システムを選択してから音声入力をしなければならない。また、いったん応答システムを選択した後に、異なる応答システムを利用したい場合には、利用する応答システムを切り替えるための操作をしなければならない。 However, in such a configuration, the user must input a voice after selecting a response system according to the purpose from a plurality of response systems by operating the vehicle-mounted device. In addition, when a different response system is to be used after selecting the response system, an operation for switching the response system to be used must be performed.
本発明は、この事情に基づいて成されたものであり、その目的とするところは、ユーザの音声入力に対する応答を行う応答システムを複数利用可能な場合に、応答を行わせる応答システムをユーザが選択する手間を省くことを可能にする応答制御システム、およびセンターを提供することにある。 The present invention has been made based on this circumstance, and the object of the present invention is to provide a response system that makes a response when a plurality of response systems that respond to a user's voice input are available. response control system that allows eliminating the need to select to provide a contact and center.
その目的を達成するための応答制御システムの発明は、マイク(12)を介してユーザによる入力音声を入力音声データとして取得する音声取得部(18A)と、音声取得部が取得した入力音声データに対して音声認識処理を実施し、当該音声認識処理の結果に基づいて、入力音声データに対する応答となる第1の応答音声データを生成する第1の応答システム(3)と、音声取得部が取得した入力音声データに対して音声認識処理を実施し、当該音声認識処理の結果に基づいて、入力音声データに対する応答となる音声データである第2の応答音声データを生成する第2の応答システム(4)と、第1の応答システムが応答するべき入力音声データの内容を記述した対応リスト(35A)を記憶する対応リスト記憶部(35)と、第1の応答システムによる音声認識処理の結果に基づいて、第1、第2の応答システムのうち、いずれの応答システムが入力音声データに対して応答するべきかを判定する回答側システム判定部(32A)と、回答側システム判定部において入力音声データに対して応答するべきと判定された方の応答システムである回答側応答システムが生成した応答音声データをスピーカ(14)に音声出力させる回答出力部(18D)と、を備え、回答側システム判定部は、音声認識処理の結果が対応リストに対応付けられている場合には、入力音声データに対して第1の応答システムが応答するべきであると判定する一方、音声認識処理の結果が対応リストに対応付けられていない場合には、入力音声データに対して第2の応答システムが応答するべきであると判定することを特徴とする。 The invention of the response control system for achieving the object includes an audio acquisition unit (18A) that acquires input audio by a user as input audio data via a microphone (12), and input audio data acquired by the audio acquisition unit. The voice response processing is performed on the first response system (3) that generates the first response voice data that is a response to the input voice data based on the result of the voice recognition process, and the voice acquisition unit acquires A second response system that performs voice recognition processing on the input voice data and generates second response voice data that is voice data that is a response to the input voice data based on the result of the voice recognition processing ( and 4) the corresponding list storage unit that stores a correlation list (35A) where the first response system that describes the contents of the input audio data to respond (35), the first response An answering system determination unit (32A) for determining which one of the first and second response systems should respond to the input voice data based on the result of the voice recognition processing by the system; Answer output unit (18D) for outputting response voice data generated by the answer side response system, which is a response system that is determined to respond to the input voice data in the answer side system determination unit, to the speaker (14). The answering system determination unit determines that the first response system should respond to the input voice data when the result of the voice recognition processing is associated with the correspondence list. On the other hand, if the result of the speech recognition process is not associated with the correspondence list, the second response system should respond to the input speech data. Wherein the determining.
以上の構成では、回答側システム判定部が第1の応答システムによる音声認識処理の結果に基づいて第1、第2の応答システムのうち、いずれの応答システムが入力音声データに対して応答するべきかを判定する。そして、回答出力部は、回答判定部において応答するべきであると判定された方の応答システムからの応答音声データをスピーカに音声出力させる。 In the above configuration, the answering system determination unit should respond to the input voice data among the first and second response systems based on the result of the voice recognition processing by the first response system. Determine whether. Then, the answer output unit causes the speaker to output response voice data from the response system that has been determined to be answered by the answer determination unit.
このような構成によれば、回答側システム判定部が自動的に入力音声データの内容に応じた応答システムを選択するため、ユーザは質問する度に当該質問に対する回答を求める応答システムを選択する手間を省略することができ、ユーザの利便性を向上させる事ができる。 According to such a configuration, since the answering system determination unit automatically selects a response system according to the contents of the input voice data, the user has to select a response system that asks for an answer to the question every time a question is asked. Can be omitted, and the convenience of the user can be improved.
センターの発明は、前記第1の応答システムとしての機能を担うとともに、前記回答側システム判定部を備えることを特徴とする。 The center invention bears the function as the first response system and includes the answering system determination unit.
以下、本発明の実施形態を図1〜図6を用いて説明する。図1は、本実施形態に係る応答制御システム100の概略的な構成の一例を示す図である。図1に示すように応答制御システム100は、ナビゲーション装置1、携帯電話機2、第1センター3、および第2センター4を備えている。ナビゲーション装置1と第1センター3、ナビゲーション装置1と携帯電話機2、携帯電話機2と第2センター4とは、それぞれ公知の無線通信技術を用いてデータの送受信を実施する。
Hereinafter, embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a diagram illustrating an example of a schematic configuration of a
本実施形態において第1センター3および第2センター4がそれぞれ応答システムとして動作し、ナビゲーション装置1は各応答システムを利用するためのユーザインターフェース(背景技術欄および請求項に記載の車載器)として動作する。第1センター3が請求項に記載の第1の応答システムに、第2センター4が請求項に記載の第2の応答システムに相当する。なお、以降ではナビゲーション装置1を搭載している車両を自車両と呼ぶ。
In the present embodiment, the first center 3 and the second center 4 each operate as a response system, and the
第1センター3は、一例として自動車会社の情報センターであって、ナビゲーション装置の操作や、渋滞情報、自車両の操作に関連する質問に対応したり、ナビゲーション装置1の機能を利用するための音声入力による命令(これを命令コマンドとする)に対応する。第1センター3の動作の概要としては、ナビゲーション装置1から送信されてくる音声データをもとに、音声認識処理を実施することでユーザの質問内容を解析する。そして、ユーザの質問に対して自センターが応答すべきかどうかを判定するとともに、ユーザの質問への応答となる応答音声データを生成してナビゲーション装置1に返送する。例えば、第1センター3は、ユーザの「コンビニはどこ?」という質問に対し、ユーザの現在地から最寄りのコンビニの位置を教えてくれるものである。以降では、この第1センター3の構成について図2を用いてより詳細に説明する。
The first center 3 is an information center of an automobile company as an example, and is a voice for responding to questions related to navigation device operation, traffic jam information, and own vehicle operation, and using functions of the
図2に示すように第1センター3は、第1センター側通信部31、第1センター側制御部32、音声認識部33、音声認識データベース(以降、データベースはDBと略す)34、第1センター側メモリ35、および音声合成部36を備えている。第1センター側通信部31、第1センター側制御部32、音声認識部33、音声認識DB34、第1センター側メモリ35、音声合成部36は、それぞれ例えば公知の通信規格に準拠したバス37を介して相互通信可能に接続されている。
As shown in FIG. 2, the first center 3 includes a first center
第1センター側通信部31は、データの送受信をするための変調/復調などの種々の信号処理を実施する機能を備え、例えば携帯電話網やインターネット網などのネットワークを介してナビゲーション装置1と通信を実施する。第1センター側通信部31は、ナビゲーション装置1から送られてくるデータを第1センター側制御部32に出力し、また、第1センター側制御部32から入力されるデータをナビゲーション装置1に送信する。なお、ナビゲーション装置1から第1センター3に送られてくるデータとしては、ユーザが発話した音声データの他、ナビゲーション装置1の現在地情報などがある。現在地情報などは逐次(例えば100ミリ秒毎)に送られてくるものとする。
The first center
音声認識DB34には、音声認識処理に必要なデータとして、例えば、人間の発声の小さな単位(音素)の音響特徴が記述されている音響モデル、音素の音響特徴と単語とを対応付ける認識辞書、単語間の連接関係を表現する言語モデルが格納されている。なお、本実施形態における音声認識DB34は、例えば千語から数万語に対応する大規模なデータベースであるものとする。また、音声認識DB34には、音声合成部36が応答音声データを生成するために用いる音声データも格納されている。
In the
音声認識部33は、第1センター側制御部32から入力される入力音声データから、音声認識DB34に格納されている種々のデータを用いて、音声認識処理を実施する。音声認識処理は、公知の技術を用いればよいため、ここでの説明は省略する。音声認識処理の結果は、第1センター側制御部32に出力される。音声合成部36は、第1センター側制御部32からの指示に基づいて音声認識DB34に格納されている音声波形データを合成することで、応答音声データを生成する。生成された応答音声データは第1センター側制御部32に出力される。この第1センター3において生成される応答音声データが請求項に記載の第1の応答音声データに相当する。
The voice recognition unit 33 performs voice recognition processing using various data stored in the
第1センター側メモリ35は、書き込み可能なHDD(Hard Disk Drive)等の大容量記憶装置である。第1センター側メモリ35には、対応リスト35Aおよび応答用データ35Bが保存されている。対応リスト35Aには自センターが対応すべき質問や命令コマンドのリストが登録されている。また、応答用データ35Bは、ユーザからの質問や命令コマンドに応答するためのデータである。
The
例えば、応答用データ35Bには、対応リスト35Aに登録されている各質問に対応する回答や、命令コマンドに対応してナビゲーション装置1の動作を制御するための制御信号のパターンが登録されている。第1センター側制御部32は、応答用データ35Bに基づいて、ユーザの質問に対する応答音声データを返送したり、ナビゲーション装置1の動作を制御するための制御信号をナビゲーション装置1に返送したりする。
For example, in the
本実施形態において、応答音声データを生成するための応答用データ35Bは、応答音声データを生成するために必要な音声波形データを指定するコマンドの群とするが、これに限らない。対応リスト35Aに登録されている質問に対応する回答として予め登録してある音声データであってもよい。この場合、この音声データを応答音声データとしてナビゲーション装置1に返送すればよいため、第1センター3は音声合成部36を備える必要はない。
In this embodiment, the
なお、本実施形態では第1センター側メモリ35としてHDDを用いる構成とするが、その他、DVDやフラッシュメモリなど公知の記憶媒体を用いてもよい。この第1センター側メモリ35が請求項に記載の対応リスト記憶部に相当する。
In the present embodiment, an HDD is used as the first center-
第1センター側制御部32は、コンピュータとして構成されており、周知のCPU、ROMやEEPROMなどの不揮発性メモリ、RAMなどの揮発性メモリ、I/O、及びこれらの構成を接続するバスライン(いずれも図示略)などを備えている。不揮発性メモリには、種々の処理を実行するためのプログラムが格納されている。第1センター側制御部32は、第1センター側通信部31や音声認識部33、音声合成部36が実施する処理を制御する。
The first center-side control unit 32 is configured as a computer, and includes a well-known CPU, a nonvolatile memory such as a ROM and an EEPROM, a volatile memory such as a RAM, an I / O, and a bus line that connects these configurations ( All are not shown). The nonvolatile memory stores a program for executing various processes. The first center side control unit 32 controls processing performed by the first center
例えば第1センター側制御部32は、ナビゲーション装置1から送られてくる音声データ(これを入力音声データとする)を第1センター側通信部31から取得した場合には、当該音声データを音声認識部33に出力し、音声認識部33に音声認識処理を実施させる。
For example, when the first center-side control unit 32 acquires the voice data sent from the navigation device 1 (this is input voice data) from the first center-
そして、音声認識部33から取得する音声認識処理の結果をもとに、第1センター側メモリ35に保存されている応答用データ35Bを参照し、入力音声データに応じた応答音声データを音声合成部36に生成させる。応答音声データを音声合成部36から取得すると、当該応答音声データを第1センター側通信部31からナビゲーション装置1に送信させる。
Based on the result of the speech recognition processing acquired from the speech recognition unit 33, the
また、第1センター側制御部32は、図2に示すように、機能ブロックとして回答側判定部32Aと、更新部32Bと、を備えている。更新部32Bは、図5に示すフローチャートのステップS219を実施する。更新部32Bについての詳細な説明は後述する。
Moreover, the 1st center side control part 32 is provided with the answer
回答側判定部32Aは、音声認識部33から取得する音声認識処理の結果と、対応リスト35Aと、から、入力音声データに対して自センターが応答すべきか否かを判定する。例えば、音声認識処理の結果、ユーザの質問がこの対応リスト35Aに登録されている範囲の質問である場合には、当該入力音声データに対して自センターが応答すべきであると判定する。
The answering
また、ユーザの質問がこの対応リスト35Aに登録されている範囲外の質問である場合には、当該入力音声データに対して自センターが応答すべきではないと判定する。判定の結果は、応答音声データの送信に先立って、判定結果信号としてナビゲーション装置1に送信する。この回答側判定部32Aが請求項に記載の回答側システム判定部に相当する。
When the user's question is a question outside the range registered in the
なお、回答側判定部32Aにおいて自センターが回答すべきではないと判定された場合であっても、第1センター側制御部32は音声合成部36などと協働して「すみません。認識出来ませんでした」などの応答音声データを生成し、ナビゲーション装置1に返送する構成としておけば良い。回答側判定部32Aにおいて自センターが回答すべきではないと判定された場合の処理は、適宜設計されればよいが、何らかの応答音声データを生成してナビゲーション装置1に返送するものとする。
Even if the answering
また、ナビゲーション装置1の動作を制御する制御信号を送信する場合でも、どのような動作をさせるのかをユーザが認識できるような応答音声データも送信するものとする。ただし、後述するように、入力音声データの内容が他のセンターからの回答を出力するように要求するものであった場合には、特に応答音声データを返送せずに、他のセンターからの回答を出力させる制御信号を送信すれば良い。
In addition, even when a control signal for controlling the operation of the
したがって、本実施形態においては、入力音声データの内容が他のセンターからの回答を出力するように要求するものであった場合を除いて、入力音声データを取得すると応答音声データを返送するものとする。もちろん、他の構成として、入力音声データの内容が命令コマンドであった場合には、応答音声データを返送しない構成としても良い。 Therefore, in the present embodiment, the response voice data is returned when the input voice data is acquired, unless the content of the input voice data is a request to output an answer from another center. To do. Of course, as another configuration, when the content of the input voice data is a command command, the response voice data may not be returned.
携帯電話機2は、周知の携帯電話機であって、第2センター4とネットワークを介して通信を実施するとともに、ナビゲーション装置1が備える第2通信部17とも通信を実施する。例えば携帯電話機2は、第2通信部17から受信する信号を、携帯電話機2と第2センター4間の通信の規格に応じた信号に変換して、第2センター4に送信する。また、第2センター4から受信する信号を、携帯電話機2と第2通信部17間の通信の規格に応じた信号に変換して、第2通信部17に送信する。
The mobile phone 2 is a well-known mobile phone, and communicates with the second center 4 via the network and also communicates with the second communication unit 17 included in the
第2センター4は、例えば携帯電話会社の情報センターであって、当該携帯電話会社の管理する携帯電話網を利用する携帯電話機2のユーザに対して種々のサービスを提供する。第2センター4は、回答側判定部32Aを備えていないことを除けば、第1センター3と同様の構成である。すなわち、ナビゲーション装置1から送信されてくる音声データをもとに、音声認識処理を実施することでユーザの質問内容を解析する。そして、ユーザの質問への応答となる応答音声データを生成してナビゲーション装置1に返送する。ただし、第2センター4は、回答側判定部32Aに相当する機能を備えていないため、ユーザの質問に対して自センターが応答すべきかどうかの判定は実施しない。
The second center 4 is an information center of a mobile phone company, for example, and provides various services to the user of the mobile phone 2 using the mobile phone network managed by the mobile phone company. The second center 4 has the same configuration as the first center 3 except that the answer
携帯電話会社が提供するサービスとしてスケジュール管理機能を想定した場合を例にとると、例えば、第2センター4は、ユーザの「今日の予定は?」という質問に対し、予め登録されているユーザのその日の予定を教えてくれるものである。なお、応答音声データを生成するための元となるデータ(その日のスケジュールの情報など)は、携帯電話機2と第2センター4とが種々のデータ通信を実施することで、第2センター4が取得する構成としてもよい。この第2センター4が生成する応答音声データが請求項に記載の第2の応答音声データに相当する。 Taking the case where a schedule management function is assumed as a service provided by a mobile phone company as an example, for example, the second center 4 responds to a user's question “What is today's schedule?” It will tell you the schedule for the day. In addition, the second center 4 acquires data (such as schedule information for the day) that is the basis for generating the response voice data by the mobile phone 2 and the second center 4 performing various data communications. It is good also as composition to do. The response voice data generated by the second center 4 corresponds to the second response voice data described in the claims.
ナビゲーション装置1は、車両に搭載されるものであって、一般的なナビゲーション装置と同様の経路案内を行う機能を有している他に、例えば、第1センター3や、携帯電話機2を介して第2センター4と通信を行う機能を有している。ナビゲーション装置1は、図1に示すように、トークスイッチ(以降、トークSW)11、マイクロフォン(以降、マイク)12、表示装置13、スピーカ14、メモリ15、第1通信部16、第2通信部17、および制御部18を備えている。
The
トークSW11は、ユーザ(運転者)が音声入力を開始する旨を指示するためのもので、例えばステアリングコラムカバーの側面部やシフトレバーの近傍などユーザが操作しやすい位置に設けられている。なお、トークSW11は一例として、いわゆるクリック方式のスイッチとし、トークSW11がユーザの操作によってオンに設定されると(すなわち、クリックされると)、オン信号を制御部18に出力する。
The
制御部18は、トークSW11からオン信号が入力されると、音声データを取得するための処理を実施するとともに、第1センター3および第2センター4との接続を開始する。ユーザは、トークSW11をオン操作した後、一定時間内(例えば1.5秒以内に)に発話し始めることで、その発話した音声をナビゲーション装置1に入力することができる。
When an ON signal is input from the
なお、トークSW11を押下してから一定時間内に発話し始めた場合の、音声入力を終了するタイミングは後述するようにマイク12から入力される音声信号の電力レベルが一定閾値以下となった時とする。
Note that the timing for ending the voice input when starting to speak within a certain time after pressing the
マイク12は、例えば無指向性の小型マイクであり、ユーザが発話した音声や雑音などの周囲の音を集音し、電気的な音声信号に変換して、制御部18に出力する。マイク12は、例えばステアリングコラムカバーの上面部や運転席側のサンバイザー等のユーザの音声を拾いやすい位置に設けられる。
The
表示装置13は、制御部18からの入力に基づいてテキストや画像を表示し、種々の情報をユーザに報知する。表示装置13は、例えばインスツルメントパネルの中央、又は運転席の前方に設けられたコンビネーションメータ内等に配置されている。表示装置13は、例えばフルカラー表示が可能なものであり、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等を用いて構成することができる。
The
スピーカ14は、制御部18から入力された電気的な音声信号を音声(単なる音を含む)に変換して出力する。メモリ15は、種々のデータを記憶する記憶装置であり、主として、種々の通信部16、17を介して第1センター3や第2センター4から取得する応答音声データや、ユーザの音声データを保存する。メモリ15は、公知の記憶媒体を用いて構成すればよく、HDDや、比較的記憶容量の小さいリムーバブルなメモリ(例えばSDカードなど)であってもよい。
The
第1通信部16は、送受信アンテナ(図示略)を備え、通信網を介して、第1センター3との間で通信を行う。第1通信部16は、例えばテレマティクス通信に用いられるDCM(Data Communication Module)といった車載通信モジュールなどの様々なものを採用することができる。第1通信部16は、第1センター3から受信した信号を復調して制御部18に入力し、また、制御部18から入力されたデータを変調して第1センター3に送信する。
The
第2通信部17は、送受信アンテナ(図示略)を備え、携帯電話機2との間でBluetooth(登録商標)の規格に従った通信(以下、BT通信)を行うことで、情報のやり取りを行う。なお、本実施形態では、携帯電話機2と第2通信部17との間での通信を、BT通信で行う構成を示したが、必ずしもこれに限らない。例えばZigBee(登録商標)等の近距離無線通信規格やIEEE802.11等の無線LAN規格などに従った無線通信によって行う構成としてもよいし、USB通信等の有線通信によって行う構成としてもよい。第2通信部17は、携帯電話機2との通信規格に応じた変調/復調などの機能を備えていればよい。 The second communication unit 17 includes a transmission / reception antenna (not shown), and exchanges information with the mobile phone 2 by performing communication (hereinafter referred to as BT communication) in accordance with the Bluetooth (registered trademark) standard. . In the present embodiment, the configuration in which the communication between the mobile phone 2 and the second communication unit 17 is performed by BT communication is shown, but the configuration is not necessarily limited thereto. For example, it may be configured to perform wireless communication according to short-range wireless communication standards such as ZigBee (registered trademark) or wireless LAN standards such as IEEE 802.11, or may be configured to perform wired communication such as USB communication. The second communication unit 17 only needs to have a function such as modulation / demodulation according to the communication standard with the mobile phone 2.
制御部18は、通常のコンピュータとして構成されており、周知のCPU、ROMやEEPROMなどの不揮発性メモリ、RAMなどの揮発性メモリ、I/O、及びこれらの構成を接続するバスライン(いずれも図示略)などを備えている。不揮発性メモリには、種々の処理を実行するためのプログラムが格納されている。制御部18は、種々の処理を実行するための機能ブロックとして、図3に示すように、音声取得部18A、回答一時保存部18B、回答側センター設定部18C、回答出力部18D、回答フィードバック部18E、エージェント表示制御部18F、および別回答要求判定部18Gを備える。
The
音声取得部18Aは、トークSW11からのオン信号に基づいて、マイク12から入力される音声信号からノイズ成分を除去した音声データを取得する処理を実施する。例えば音声取得部18Aは、オン信号が入力されると、マイク12から入力される音声信号を音声データに変換可能な状態である待機状態となる。そして、待機状態となってから音声が入力されない状態が一定時間(例えば、1.5秒)以上継続すると、自動的に変換不可状態となる。一定時間内に音声が入力されているとの判定が為された場合には、音声の入力が終わったと判定されるまでのマイク12から入力される音声信号を音声データに変換する。
Based on the ON signal from the
音声が入力されているか否か、および音声入力が終了したか否かは、公知技術を用いればよく、例えば音声信号の電力レベルが所定の閾値以上となったか否かによって判定すればよい。もちろん、このような構成においては閾値以上の電力レベルとなっている音声信号が入力された場合に、音声が入力されたと判定する。これら音声データの取得方法は、公知の技術を用いればよい。音声取得部18Aで取得した音声データは、VoIP(Voice over Internet Protocol)などの公知の技術を用いてデジタルのパケット信号に変換して第1通信部16を介して第1センター3に送信される。
Whether or not the voice is input and whether or not the voice input has ended may be determined by using a known technique, for example, by determining whether or not the power level of the voice signal is equal to or higher than a predetermined threshold. Of course, in such a configuration, when an audio signal having a power level equal to or higher than the threshold value is input, it is determined that the audio is input. A publicly known technique may be used as a method for acquiring these audio data. The voice data acquired by the
回答一時保存部18Bは、第1センター3および第2センター4から受信した応答音声データをメモリ15に一時保存する。回答一時保存部18Bは、これらの音声データを受信してから、少なくとも例えば図4のステップS115でNOと判定されるまでは保存しておくものとする。この回答一時保存部18Bが請求項に記載の一時保存部に相当する。
The answer
回答側センター設定部18Cは、第1センター3から送られてくる判定結果信号に応じて、第1センター3および第2センター4のどちらから取得する応答音声データを、ユーザから入力された質問への回答としてスピーカ14から出力するかを決定する。そして、ユーザから入力された質問に回答する側のセンターを回答側センターに設定し、回答側センターに設定されていないほうのセンターを準回答側センターに設定する。
In response to the determination result signal sent from the first center 3, the answer-side
より具体的には、判定結果信号が、第1センター3が応答すべきであるという内容であった場合には、回答側センターとして第1センター3を採用し、第1センター3から取得した応答音声データを出力するように回答出力部18Dに指示する。また、判定結果信号が、第1センター3が応答すべきでないという内容であった場合には、回答側センターとして第2センター4を採用し、第2センター4から取得した応答音声データを出力するように回答出力部18Dに指示する。
More specifically, when the determination result signal indicates that the first center 3 should respond, the response obtained from the first center 3 by adopting the first center 3 as the answering center. The
なお、本実施形態ではこのように回答側センター設定部18Cにおいて、第1センター3および第2センター4のそれぞれを、回答側センターおよび準回答側センターに設定する構成とするが、この回答側センター設定部18Cは発明を実施する上で任意の要素である。回答側センターが請求項に記載の回答側応答システムに、準回答側センターが請求項に記載の準回答側応答システムにそれぞれ相当する。
In the present embodiment, the answering
回答出力部18Dは、回答側センター設定部18Cの指示またはユーザ操作に基づいて、第1センター3または第2センター4のどちらから取得した応答音声データを音声信号に変換してスピーカ14に出力し、スピーカ14に音声として出力させる。回答フィードバック部18E、エージェント表示制御部18F、別回答要求判定部18Gについては後述する。
The
(応答切替処理)
ここで、図4に示すフローチャートを用いて、ナビゲーション装置1の制御部18が実施する応答切替処理の流れを説明する。図4のフローチャートは、例えば自車両のイグニッションスイッチがオンされてナビゲーション装置1に電源供給されたときに開始されるものとする。
(Response switching process)
Here, the flow of the response switching process which the
まず、ステップS101では、トークSW11からオン信号が入力された否かを判定する。トークSW11からオン信号が入力された場合には、ステップS101がYESとなってステップS103に移る。また、トークSW11からオン信号が入力されていない場合には、ステップS101がNOとなって、ステップS101に戻る。すなわち、ユーザによってトークSW11が押下されるまで待機する。
First, in step S101, it is determined whether or not an ON signal is input from the talk SW11. If an ON signal is input from the
ステップS103では、制御部18は、第1センター3に接続し、第1センター3による応答システムを利用可能な状態にするとともに、携帯電話機2を介して第2センター4にも接続し、第2センター4による応答システムを利用可能な状態とする。すなわち、各応答システムは、ナビゲーション装置1から送信される音声データの受信を待機している状態とする。
In step S103, the
また、それぞれの応答システムが利用可能な状態となると、エージェント表示制御部18Fは、表示装置13に図6(A)に示すように、それぞれの応答システムに対応するエージェントA、Bを同時に表示させる。図6中のエージェントAは、第1センター3による応答システムに対応するエージェントの画像であり、エージェントBが第2センター4による応答システムに対応するエージェントの画像である。なお、エージェントとは、架空の人物や擬人化された動物などのキャラクターである。
When each response system becomes available, the agent
ある応答システムに応じたエージェントを表示する技術としては、例えば特開2006−195578に開示されている技術を適用すれば良い。ただし、特許文献1は、複数の応答システムのそれぞれに対応する複数のエージェントを表示するものではない。本実施形態のエージェント表示制御部18Fは、特許文献1などの公知の技術を用いて、それぞれの応答システムに対応するエージェント画像を生成し、それら複数のエージェントの画像を1つの画面に表示されるように合成または重畳して表示するものとする。
As a technique for displaying an agent corresponding to a certain response system, for example, a technique disclosed in JP-A-2006-195578 may be applied. However,
ステップS103での処理が終了すると、ステップS105に移る。なお、S103を実施している間も音声取得部18Aは、マイク12から音声データを取得している。
When the process in step S103 ends, the process proceeds to step S105. Note that the
ステップS105では、マイク12からユーザによる音声が入力されたか否かを判定する。すなわち、ステップS101でトークSW11が押下されてから一定時間内にユーザからの音声が入力されなかった場合には、ステップS105がNOとなってステップS101に戻る。一方、ユーザから音声が入力された場合には、ステップS105がYESとなってステップS107に移る。ステップS107では、音声取得部18Aが取得した音声データを、VoIP技術などを用いて第1センター3および第2センター4に送信してステップS109に移る。
In step S105, it is determined whether or not a user's voice is input from the
ステップS109では、第1センター3から送られてくる判定結果信号を、第1通信部16を介して取得して、ステップS111に移る。なお、判定結果信号を受信すると、回答側センター設定部18Cが、当該判定結果信号に基づいて、第1センター3および第2センター4をそれぞれ回答側センターまたは準回答側センターに設定する。
In step S109, the determination result signal sent from the first center 3 is acquired via the
ステップS111では、第1センター3および第2センター4から送信される応答音声データを取得する。ここで、準回答側センターからの応答音声データは、回答一時保存部18Bによってメモリ15に一時保存される。なお、本実施形態では回答側センターからの応答音声データを取得したタイミングでステップS111からステップS113に移る構成とするが、両方のセンター3,4から応答音声データを取得してからステップS113に移る構成でもよい。
In step S111, response voice data transmitted from the first center 3 and the second center 4 is acquired. Here, the response voice data from the semi-answer side center is temporarily saved in the
ステップS113では、回答出力部18Dが、回答側センター設定部18Cによって回答側センターからの応答音声データをスピーカ14に音声出力させる。また、回答側センターの応答音声データをスピーカ14から音声出力させるとともに、図6の(B)や(C)に示すように回答側センターに対応するエージェントを相対的に大きく表示し、かつ、当該エージェントが話しているように画像を表示させる。ステップS113を実施すると、ステップS115に移る。
In step S113, the
なお、各センターから応答音声データとともに応答音声データの内容に対応するテキストデータも取得できる場合には、当該エージェントのそばに当該テキストを表示しても良い。当該エージェントが話しているように画像を表示させる視覚効果は適宜設計されれば良い。 In addition, when the text data corresponding to the content of the response voice data can be acquired together with the response voice data from each center, the text may be displayed near the agent. The visual effect for displaying an image as the agent is speaking may be designed as appropriate.
ステップS115では、別回答要求判定部18Gが、ユーザから別の回答を要求する操作を受け付けたか否かを判定する。別の回答を要求する操作を受け付けた場合としては、例えば、表示装置13に積層されたタッチパネル(図示略)に対して、準回答側センターのエージェントが表示されている領域をユーザがタッチしたことを検出した場合とすればよい。
In step S115, the separate answer
その他、ユーザは、準回答側センターに対応するエージェントの名前を音声入力することによって、別の回答を制御部18に要求してもよい。ただし、この場合、対応リスト35Aに、両センターの応答システムに対応するエージェントの名前をそれぞれ登録しておく必要がある。そして、第1センター側制御部32は、準回答側センターのエージェントの名前が呼ばれたことを検出することによって、準回答側センターの応答音声データを出力させる制御信号をナビゲーション装置1に送信する。
In addition, the user may request the
なお、ステップS115に遷移してから一定時間(例えば2秒)経過してもユーザから別の回答を要求する操作を受け付けていない場合には、ユーザから別の回答を要求する操作が為されなかったと判定する。 If an operation for requesting another answer is not received from the user even after a lapse of a certain time (for example, 2 seconds) after the transition to step S115, an operation for requesting another answer is not performed from the user. It is determined that
ユーザから別の回答を要求する操作を受け付けた場合には、ステップS115がYESとなってステップS117に移る。また、ユーザから別の回答を要求する操作が為されなかった場合には、ステップS115がNOとなってステップS119に移る。ステップS117では、準回答側センターからの応答音声データを、メモリ15から読み出し、スピーカ14から音声出力させる。また、準回答側センターの応答音声データをスピーカ14から音声出力するとともに、図6の(B)や(C)のように準回答側センターに対応するエージェントを相対的に大きく表示し、当該エージェントが話しているように画像を表示させる。ステップS117を実施すると、ステップS119に移る。
If an operation for requesting another answer is received from the user, step S115 becomes YES and the process moves to step S117. If the user does not request another answer, step S115 is NO and the process proceeds to step S119. In step S117, the response voice data from the semi-answer side center is read from the
ステップS119では、回答フィードバック処理を実施して、再びステップS101の待機状態に戻る。この回答フィードバック処理では、判定結果信号の内容、すなわち、回答側判定部32Aの判定結果が正しかったか否かを第1センター3に送信する。例えば、ステップS115においてユーザから別の回答を要求する操作が為されなかった場合には、回答側判定部32Aの判定が正しかったとする内容の信号を第1センター3に送信する。一方、ステップS115においてユーザから別の回答を要求する操作を受け付けた場合には、回答側判定部32Aの判定が誤っていたとする内容の信号を第1センター3に送信する。
In step S119, an answer feedback process is performed, and the process returns to the standby state in step S101. In this answer feedback processing, the contents of the judgment result signal, that is, whether or not the judgment result of the answer
なお、本実施形態においては、いったんステップS103を実施した場合には、以降においても常に第1センター3および第2センター4との接続を維持するとともに、表示装置13にも図6の(A)を表示させておく構成とする。接続を維持する場合には一定周期(例えば200ミリ秒ごと)で接続が維持できているかを確認するための信号を送受信すればよい。そして、接続が切断している状態において、オン信号が入力された場合には再度ステップS103を実施すれば良い。もちろん、他の構成として、ステップS119を実施する度に、第1センター3および第2センター4との接続を切断する構成でもよい。
In the present embodiment, once step S103 is performed, the connection with the first center 3 and the second center 4 is always maintained and the
(第1センター応答処理)
次に、ナビゲーション装置1が実施する応答切替処理における各処理を受けて第1センター側制御部32が実施する第1センター応答処理について、図5に示すフローチャートを用いて説明する。図5に示すフローチャートは、ナビゲーション装置1から接続要求信号を受信したとき(図4のステップS103)に開始される。
(First center response process)
Next, the first center response process performed by the first center-side control unit 32 in response to each process in the response switching process performed by the
まず、ステップS201では、ナビゲーション装置1からの接続要求信号に対して応答信号を返送し、ナビゲーション装置1および第1センター3間の接続を確立する。ナビゲーション装置1および第1センター3間の接続を確立すると、ステップS203に移る。ステップS203では、ナビゲーション装置1から入力音声データを取得したか否かを判定する。入力音声データを取得した場合には、ステップS203がYESとなってステップS205に移る。入力音声データを取得していない場合には、ステップS203がNOとなってステップS203に戻る。すなわち、入力音声データを取得するまで第1センター側制御部32は待機している状態である。
First, in step S201, a response signal is returned to the connection request signal from the
ステップS205では、入力音声データを音声認識部33に出力し、公知の音声認識処理を実施させる。音声認識部33から音声認識処理の結果を取得すると、ステップS207に移る。ステップS207では、回答側判定部32Aが、音声認識部33から取得する音声認識処理の結果と、対応リスト35Aと、から、入力音声データに対して自センターが応答すべきか否かを判定する。入力音声データに対して自センターが応答すべきであると判定した場合には、ステップS209がYESとなってステップS211に移る。また、入力音声データに対して自センターが応答すべきではないと判定した場合には、ステップS209がNOとなってステップS213に移る。
In step S205, the input voice data is output to the voice recognition unit 33, and a known voice recognition process is performed. When the result of the voice recognition process is acquired from the voice recognition unit 33, the process proceeds to step S207. In step S207, the answer-
ステップS211では、回答側センターとして自センターを設定した判定結果信号をナビゲーション装置1に返送し、ステップS215に移る。またステップS213では、回答側センターとして他のセンターを設定した判定結果信号をナビゲーション装置1に返送し、ステップS215に移る。
In step S211, a determination result signal in which the center is set as the answering center is returned to the
ステップS215では、音声認識処理の結果をもとに、第1センター側メモリ35に保存されている応答用データ35Bを参照し、入力音声データの内容に応じた応答音声データを音声合成部36に生成させる。音声合成部36から応答音声データを取得するとステップS217に移る。ステップS217では、当該応答音声データを第1センター側通信部31からナビゲーション装置1に送信させ、ステップS219に移る。
In step S215, based on the result of the voice recognition process, the
ステップS219では、更新部32Bがフィードバック処理を実施する。このフィードバック処理では、まず、ナビゲーション装置1から回答側判定部32Aの判定結果が正しかったか否かの結果を取得する(図4のステップS119)。ナビゲーション装置1から回答側判定部32Aの判定が正しかったとする内容を取得した場合には、次回以降の判定も今回と同様に判定すれば良い。また、ナビゲーション装置1から回答側判定部32Aの判定が誤っていたとする内容を取得した場合には、次回以降の判定に対して今回とは異なる判定をするように対応リスト35Aを更新する。
In step S219, the
なお、ナビゲーション装置1による応答切替処理を受けて、第2センターが実施する応答処理も、図5のステップS207〜S213を実施しない点を除けば、第1センター応答処理と同様であるため、ここでの詳細な説明は省略する。
The response process performed by the second center in response to the response switching process by the
以上で述べた応答制御システム100における、ユーザ操作に対する一連の作動について説明する。まず、ユーザがトークSW11を押下すると、表示装置13には図6(A)に示すように第1センター3および第2センター4のそれぞれの応答システムに対応するエージェントA,Bを表示する(ステップS103)。そして、ユーザから例えば「コンビニはどこ?」という発話に対応する音声信号が入力された場合には、ナビゲーション装置1は、この音声信号を音声データに変換して、第1センター3および第2センター4に送信する(ステップS107)。
A series of operations in response to user operations in the
第1センター3では、この音声データ(すなわち入力音声データ)を取得すると、音声認識処理を実施し(ステップS205)、回答判定処理を実施する(ステップS207)。ここでの例では入力音声データの内容がコンビニの位置を質問しているものであるため、音声認識処理の結果、道路案内の質問であると判定し、自センターが回答するべきであると判定する(ステップS209 YES)。そして、回答側センターとして自センター(すなわち、第1センター3)を設定した判定結果信号を出力する(ステップS211)。 When the first center 3 acquires the voice data (that is, input voice data), the voice recognition process is performed (step S205), and the answer determination process is performed (step S207). In this example, the content of the input voice data is a question about the location of a convenience store. As a result of the voice recognition process, it is determined that it is a road guidance question, and it is determined that the center should respond. (Step S209 YES) And the determination result signal which set the self center (namely, 1st center 3) as an answer side center is output (step S211).
ナビゲーション装置1の回答側センター設定部18Cは、この判定結果信号を受けて第1センター3を回答側センターに設定し、かつ、第2センター4を準回答側センターに設定して、各センター3,4から応答音声データから送られてくるのを待機する。その後、各センター3,4から応答音声データを取得すると、第1センター3からの応答音声データをスピーカ14から音声出力させ、第2センター4からの応答音声データを回答一時保存部18Bがメモリ15に一時保存する(ステップS113)。
The answering
なお、第1センター3からの応答音声データをスピーカ14から出力している間は、図6(B)に示すように第1センター3に対応するエージェントAを相対的に大きく表示するとともに、エージェントAが話しているように表示する。
While the response voice data from the first center 3 is being output from the
その後、一定時間内にユーザから別の回答を要求する操作を受け付けた場合には(ステップS115 YES)、第2センター4からの応答音声データをスピーカ14から出力させる(ステップS117)。そして、ナビゲーション装置1は回答フィードバック処理を実施して、この「コンビニはどこ?」というユーザの発話に対する一連の応答切替処理を終了する。なお、以上では第1センター3が回答側センターとなる例を述べたが、第2センター4が回答側センターとなる場合であっても同様に処理すればよい。
Thereafter, when an operation for requesting another answer is received from the user within a predetermined time (YES in step S115), response voice data from the second center 4 is output from the speaker 14 (step S117). And the
(本実施形態のまとめ)
以上の構成では、回答側判定部32Aが第1センター3による音声認識処理の結果に基づいて前記第1、第2センターのうち、いずれのセンターが前記入力音声データに対して応答するべきかを判定し、その判定結果をナビゲーション装置1に送信する。ナビゲーション装置1では、回答側センター設定部18Cが当該判定結果に基づいて、回答側センターおよび準回答側センターを設定し、回答出力部が、回答側センターからの応答音声データをスピーカに音声出力させる。
(Summary of this embodiment)
In the above configuration, which one of the first and second centers the response
このような構成によれば、回答側判定部32Aが自動的に入力音声データの内容に応じて、ユーザの音声入力に対して応答すべきセンター(すなわち応答システム)を選択するため、ユーザは応答を行わせる応答システムを選択する手間を省くことができ、ユーザの利便性を向上させる事ができる。
According to such a configuration, the answering
また、本実施形態では車両外のセンター(ここでは第1センター3)に回答側判定部32Aを備える構成とすることで、より多くのユーザからの回答フィードバック処理を受け付けることができる。これにともなって、回答側判定部32Aは、より的確な回答判定処理を実施することができるようになる。
Further, in the present embodiment, by providing the answer
また、回答一時保存部18Bが準回答側センターからの応答音声データをメモリ15に一時保存しておき、ステップS115においてユーザからの所定の操作入力(エージェント画像のタッチなど)を受け付けると、準回答側センターからの応答音声を音声出力する。これによって、回答側判定部32Aの判定結果が不適切であった場合であっても、同じ音声内容を再度入力すること無く、速やかに他のセンターからの回答を聞くことができる。
Further, when the response
また、回答フィードバック処理およびフィードバック処理を実施する構成とした。これによって、回答側判定部32Aの判定結果に対するユーザの反応(回答側センターからの応答内容に満足したか否か)を、次回からの判定に反映することができ、より回答判定処理の精度を向上させることができる。
The response feedback process and the feedback process are implemented. Thereby, the user's reaction to the determination result of the answer
さらに、エージェント表示制御部が、表示装置13に各センターに対応するエージェントA、Bを表示し、回答出力部18Dによってスピーカ14から音声出力されている応答音声データを生成したセンターに対応するエージェントが話しているように表示する。これによって、ユーザは、自身の音声入力に対してどちらのセンターが対応しているのかが一目で認識することができる。
Further, the agent corresponding to the center where the agent display control unit displays the agents A and B corresponding to the respective centers on the
なお、本実施形態では、複数の応答システムを利用する際のインターフェースとしてナビゲーション装置1を用いる構成としたが、これに限らない。ナビゲーション機能を備えない車載器を、複数の応答システムを利用する際のインターフェースとして用いてもよい。
In the present embodiment, the
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、以降に述べる種々の変形例も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。 As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, The various modifications described below are also included in the technical scope of this invention, and also in addition to the following However, various modifications can be made without departing from the scope of the invention.
(変形例1)
上述の実施形態では回答側判定部32Aを第1センター3に備えさせたが、もちろん、回答側判定部32Aは第2センター4に備えさせても良い。また、第1センター3として自動車会社の情報センターを想定し、第2センター4として携帯電話会社の情報センターを想定したが、これら以外の情報センターであってもよい。
(Modification 1)
In the above-described embodiment, the answer
(変形例2)
また、上述した実施形態では、第2センター4との通信は携帯電話機2を介して実施する構成としたが、これに限らない。携帯電話機2を介さずに、ナビゲーション装置1と第2センター4とが通信する構成でもよい。さらに、携帯電話機2に代わって、無線通信機能を有する他の携帯端末(例えば公知のタブレット端末など)を用いる構成であってもよい。なお、メモリ15は任意の要素としてもよい。
(Modification 2)
In the above-described embodiment, the communication with the second center 4 is performed via the mobile phone 2, but is not limited thereto. A configuration in which the
(変形例3)
前述の実施形態では、第1センター3が回答するのか、第2センター4が回答するのかを判定する回答側判定部32Aを第1センター3に備えさせたが、これに限らない。例えばナビゲーション装置1に、対応リスト35Aおよび回答側判定部32Aに相当する機能を備えさせても良い。
(Modification 3)
In the above-described embodiment, the first center 3 is provided with the answer
回答判定処理に用いる音声認識の結果は、第1センター3または第2センター4から取得する構成でも良いし、音声認識部33、音声認識DB34に相当する機能をナビゲーション装置1に備えさせても良い。この変形例1の構成によれば、ナビゲーション装置1において、回答側センターを判定できるため、応答制御システムの構成をより簡単にすることができる。
The voice recognition result used for the answer determination process may be obtained from the first center 3 or the second center 4, or the
(変形例4)
なお、以上では、ユーザの入力音声データに応答する複数の応答システムがいずれも車両外のセンターに備えられている構成を示したが、これに限らない。たとえば図7に示すように、ナビゲーション装置1に第1センター3に相当する応答システム19が備えられている構成でもよい。この場合、通信は第2センター4とだけ実施するため、通信費を前述の実施形態よりも抑制することができる。
(Modification 4)
In addition, although the above demonstrated the structure with which the some response system which responds to a user's input audio | voice data is equipped with the center outside a vehicle, it does not restrict to this. For example, as shown in FIG. 7, the
(変形例5)
一般に、音声認識処理はCPUに対して比較的高い処理能力を必要とするため、変形例4のようにナビゲーション装置1に音声認識処理などの機能を備えさせると、ナビゲーション装置1は高性能のCPUを備える必要性が生じ、ナビゲーション装置1が高価になってしまうことが懸念される。そこで、公知のDSR(Distributed Speech Recognition)技術を用いて、音声認識処理をナビゲーション装置1と、外部のセンター3,4とで、分担する構成としても良い。
(Modification 5)
In general, since the voice recognition process requires a relatively high processing capacity for the CPU, if the
例えば、ナビゲーション装置1にユーザの音声データに対して音響分析のみを実施する機能を実装し、音響分析によって得られる特徴量を外部のセンター3,4に送信する。外部のセンター3,4は、ナビゲーション装置1から送られてくる特徴量に基づいて音声認識処理を実行し、応答音声データをナビゲーション装置1に返送する。
For example, the
(変形例6)
また、前述の実施形態では、回答側判定部32Aによる判定の精度を向上させるための学習方法として、ステップS119での回答フィードバック処理およびステップS219でのフィードバック処理を実施する構成としたが、これに限らない。
(Modification 6)
In the above-described embodiment, the answer feedback process in step S119 and the feedback process in step S219 are implemented as a learning method for improving the accuracy of the determination by the answer
例えば、センター側制御部32は、ユーザが同じ或いは類似性の高い内容の質問を繰り返し入力したかどうかで、ユーザが回答に満足したかを判定してもよい。すなわち、センター側制御部32は、音声認識処理の結果、同じ或いは類似性の高い内容と推定される質問が一定時間(例えば1分)以内に再度為された場合には、前回(すなわち一回目に)スピーカ14より出力された回答に対してユーザが満足していなかったと判定する。この場合、回答側判定部32Aは、一回目では準回答側センターに設定したセンターを回答側センターに設定するとともに、対応リスト35Aの内容を、一回目で準回答側センターに設定したセンターを回答側センターに設定するように修正すればよい。
For example, the center-side control unit 32 may determine whether the user is satisfied with the answer based on whether the user repeatedly inputs the same or highly similar question. That is, as a result of the voice recognition process, the center-side control unit 32 determines that the same or highly similar question is asked again within a certain time (for example, 1 minute). B) It is determined that the user is not satisfied with the answer output from the
なお、入力音声データの内容が、以前に入力された入力音声データと同じ或いは類似性の高いものであるか否かの判定は、音声認識処理の結果、それぞれの入力音声データに出現する単語(その単語の類似語も含む)の一致度合いによって評価すれば良い。 It should be noted that whether or not the content of the input voice data is the same as or high in similarity with the previously input voice data is determined based on the words ( Evaluation may be made based on the degree of matching (including similar words of the word).
ただし、ユーザが最初の応答音声データによる回答に満足していないからといって、回答側センターが不適切だったとは限らない。ユーザは、同じ回答側センターに対して異なる回答を求めている場合も考えられる。 However, just because the user is not satisfied with the response by the first response voice data does not mean that the answer center is inappropriate. The user may be requesting different answers from the same answering center.
そこで、回答側判定部32Aは、音声認識処理の結果と、対応リスト35Aとの一致度合いに基づいて、判定結果に対する確からしさを算出する。そして、その確からしさが所定閾値以上である場合には、対応リスト35Aは修正せずに、応答用データ35Bを修正してより適切な応答音声データが生成できるようにしてもよい。
Therefore, the answering
なお、音声認識処理の結果と、対応リスト35Aとの一致度合いとは、対応リストと、ユーザの入力音声と対応リストに登録されている質問との意味の近さを評価したものと言い換えられる。
The coincidence degree between the result of the speech recognition process and the
例えば、1回目に「近くのガソリンスタンドは?」という質問に対して、第1センター3が近くのA社のガソリンスタンドの場所を提示した後に、「B社のガソリンスタンドは?」という質問が入力された場合を想定する。 For example, in response to the first question “What is a nearby gas station?”, After the first center 3 presents the location of a nearby A company gas station, the question “What is the B company gas station?” Assume that it is entered.
なお、第1センター3が応答すべき質問の内容として「ガソリンスタンドの場所」が対応リストに登録されており、1回目の入力音声も、2回目の入力音声も、ガソリンスタンドの場所を尋ねているため、第1センター3が応答すべきであるという判定結果の確からしさは所定の閾値以上となっているものとする。 As the contents of the question to be answered by the first center 3, “gas station location” is registered in the correspondence list, and the first input voice and the second input voice ask the location of the gas station. Therefore, it is assumed that the certainty of the determination result that the first center 3 should respond is equal to or greater than a predetermined threshold value.
このような場合には、回答側センターの判定結果は維持したまま、次回からはB社のガソリンスタンドを優先的に案内するように応答用データを修正する構成とすれば良い。この場合、各センターはユーザ毎の嗜好を反映した応答用データ35Bを備えていることが好ましい。
In such a case, the response data may be corrected so as to preferentially guide the gas station of Company B from the next time while maintaining the determination result of the answering center. In this case, each center is preferably provided with
(変形例7)
なお、回答側判定部32Aを備えている第1センター3は、第2センター4の応答音声データを取り込んでもよい。第1センター3は、第2センター4の応答音声データを解析することにより、第1センター3の回答判定処理や応答用データ35Bに反映することで、ユーザの質問に対する回答の精度を向上させる事ができる。
(Modification 7)
The first center 3 provided with the answer
特に、第1センター3と第2センター4とが、同様なサービス(周辺のレストラン検索など)を実施している場合には、第2センター4の応答音声データを取り込むことで、ユーザの嗜好などを反映することが期待される。 In particular, when the first center 3 and the second center 4 are carrying out similar services (such as searching for nearby restaurants), the user's preferences and the like can be obtained by capturing response voice data of the second center 4. Is expected to reflect.
この場合、ナビゲーション装置1は、第2センター4から取得した応答音声データを回答一時保存部18Bに一時保存するとともに、第1通信部16を介して第1センター3に送信する。なお、第2センターの応答音声データを取り込む処理は、第1センター応答処理とは独立して行うことが好ましい。
In this case, the
(変形例8)
また、音声認識処理の結果、質問の内容が相対的にあいまいであった場合に、車両の状況によって質問の意図を推測する構成としても良い。例えば、のろのろ運転、ブレーキを頻繁に踏む、ウインカの急な操作等の運転動作や、現在の車両位置がユーザの普段の行動範囲外である場合に、「お腹すいた」といった内容の入力音声データを取得した場合には、レストランなどを探していると推定し、道案内が必要だと判定する。
(Modification 8)
Moreover, when the content of the question is relatively ambiguous as a result of the voice recognition processing, the intention of the question may be estimated based on the vehicle situation. For example, input voice data such as “I'm hungry” when driving, such as slow driving, frequent braking, sudden turn of a blinker, or when the current vehicle position is outside the user's normal range of action If it is obtained, it is estimated that a restaurant or the like is being searched for, and it is determined that route guidance is necessary.
そして、「この先にレストランがあります。目的地設定しますか?」といった応答音声データを返送する。車両の状況を推定するための車両情報(車両の速度、ブレーキ、ウインカ、車両位置など)は、ナビゲーション装置1を通して自動車会社のセンターへ送信するものとする。また、目的物を探している/道に迷っている等の判定は、自動車会社のセンターで行うものとする。なお、ナビゲーション装置1で車両情報に基づいて車両の状況を判定し、その判定結果を自動車会社のセンターへ送信してもよい。
Then, response voice data such as “There is a restaurant ahead. Do you want to set a destination?” Is returned. Vehicle information (vehicle speed, brake, turn signal, vehicle position, etc.) for estimating the vehicle status is transmitted to the center of the automobile company through the
このような構成によれば、ユーザの音声入力の内容が、あいまいなものであった場合にも車両情報から、ユーザの状況を推定することで、より適切な応答を実施することができるようになる。 According to such a configuration, even when the content of the user's voice input is ambiguous, a more appropriate response can be implemented by estimating the user's situation from the vehicle information. Become.
(変形例9)
上述した実施形態では、対応リスト35Aには、第1センター3が対応すべき質問や命令コマンドのリストが登録されており、他のセンターが対応すべき質問や命令コマンドのリストについては登録されていない構成としたがこれに限らない。
(Modification 9)
In the embodiment described above, the list of questions and command commands that should be handled by the first center 3 is registered in the
すなわち、対応リスト35Aには、第1センター3が対応すべき質問や命令コマンドのリストに加えて、第2センター4が対応すべき質問や命令コマンドのリストを備えていてもよい。これによって、ユーザの質問の内容が、第2センター4が対応すべき質問であると対応リスト35Aに登録されている場合には、回答側判定部32Aは、単に自センター3が応答すべきではない、というだけでなく、当該ユーザの質問に対しては第2センター4が応答すべきであることまで判定することができるようになる。
That is, the
また、これに伴って、回答側判定部32Aは、音声認識処理の結果と、センター毎の対応リスト35Aの内容との一致度に基づいて、センター毎にそのセンターが応答することの尤もらしさ(尤度)を算出し、尤度が高い方を回答側センターに設定しても良い。なお、回答側判定部32Aは、音声認識処理の結果と、センター毎の対応リスト35Aの内容との一致度が高いほど、尤度は高くなるものとする。
Accordingly, the answering
(変形例10)
なお、変形例9において、対応リスト35Aには各センターが対応すべき質問や命令コマンドのリストが登録されているものとしたが、これに限らない。例えば、対応リスト35Aには、センター毎に、そのセンターが実施するサービスと関連性の強い単語や薄い単語を定義しておき、回答側判定部32Aは、音声認識処理の結果に含まれる単語と各センターとの関連性を評価して、回答側センターを判定しても良い。
(Modification 10)
In the modification 9, the
例えば、「道」「目的地」「道路」「渋滞」などの単語が含まれていた場合には、第1センター3を回答側センターに設定し、「電話」「(人物名詞)さん」「スケジュール」などの単語が含まれていた場合には、第2センター4を回答側センターに設定すればよい。センターが対応すべき質問と入力音声データとの一致度合いを評価する際に、これらの単語毎の重み付けを適用してもよい。 For example, when words such as “road”, “destination”, “road”, and “traffic jam” are included, the first center 3 is set as the answering center, and “phone” “(person noun)” “ If a word such as “schedule” is included, the second center 4 may be set as the answering center. When evaluating the degree of coincidence between the question to be handled by the center and the input voice data, weighting for each word may be applied.
(変形例11)
また、以上の例では、ユーザが利用可能な応答システムとして、2つの応答システム(すなわち、センター)が利用可能な構成について説明したが、これに限らない。ユーザが利用可能なセンターは3つ以上であっても良い。すなわち、請求項に記載の第1の応答システムに相当する1つのセンターに対して、第2の応答システムに相当するセンターが複数あってもよい。
(Modification 11)
Moreover, although the above example demonstrated the structure which can use two response systems (namely, center) as a response system which a user can utilize, it is not restricted to this. There may be three or more centers available to the user. That is, there may be a plurality of centers corresponding to the second response system with respect to one center corresponding to the first response system recited in the claims.
この場合、対応リスト35Aには、それぞれのセンターが応答するべき入力音声の内容を、センター毎に登録しておく。そして、回答側判定部32Aは、音声認識処理の結果と、対応リストと、に基づいて、ユーザが利用な可能な複数の応答システムのうち、いずれの応答システムが当該入力音声データに対して応答するべきかを判定すればよい。
In this case, in the
例えば回答側判定部32Aは、音声認識処理の結果と、センター毎の対応リスト35Aの内容との一致度合いに基づいて、センター毎に尤度を算出する。そして最も尤度が高いセンターの応答音声データから優先的に音声出力させれば良い。
For example, the answering
100 応答制御システム、1 ナビゲーション装置(車載器)、12 マイク、14 スピーカ、18 制御部、18A 音声取得部、18B 回答一時保存部、18C 回答側センター設定部、18D 回答出力部、18E 回答フィードバック部、18F エージェント表示制御部、18G 別回答要求判定部、2 携帯電話機、3 第1センター(第1の応答システム)、32 第1センター側制御部、32A 回答側判定部、32B 更新部、33 音声認識部、34 音声認識データベース、35 第1センター側メモリ、35A 対応リスト、35B 応答用データ、4…第2センター(第2の応答システム)
DESCRIPTION OF
Claims (8)
前記音声取得部が取得した前記入力音声データに対して音声認識処理を実施し、当該音声認識処理の結果に基づいて、前記入力音声データに対する応答となる第1の応答音声データを生成する第1の応答システム(3)と、
前記音声取得部が取得した前記入力音声データに対して音声認識処理を実施し、当該音声認識処理の結果に基づいて、前記入力音声データに対する応答となる音声データである第2の応答音声データを生成する第2の応答システム(4)と、
前記第1の応答システムが応答するべき入力音声データの内容を記述した対応リスト(35A)を記憶する対応リスト記憶部(35)と、
前記第1の応答システムによる前記音声認識処理の結果に基づいて、前記第1、第2の応答システムのうち、いずれの応答システムが前記入力音声データに対して応答するべきかを判定する回答側システム判定部(32A)と、
前記回答側システム判定部において前記入力音声データに対して応答するべきと判定された方の応答システムである回答側応答システムが生成した応答音声データをスピーカ(14)に音声出力させる回答出力部(18D)と、を備え、
前記回答側システム判定部は、
前記音声認識処理の結果が前記対応リストに対応付けられている場合には、前記入力音声データに対して前記第1の応答システムが応答するべきであると判定する一方、
前記音声認識処理の結果が前記対応リストに対応付けられていない場合には、前記入力音声データに対して前記第2の応答システムが応答するべきであると判定することを特徴とする応答制御システム。 An audio acquisition unit (18A) that acquires input audio by the user as input audio data via the microphone (12);
A voice recognition process is performed on the input voice data acquired by the voice acquisition unit, and first response voice data serving as a response to the input voice data is generated based on a result of the voice recognition process. Response system (3)
Voice recognition processing is performed on the input voice data acquired by the voice acquisition unit, and based on the result of the voice recognition processing, second response voice data that is voice data serving as a response to the input voice data is obtained. A second response system (4) to generate;
A correspondence list storage unit (35) for storing a correspondence list (35A) describing the contents of the input voice data to which the first response system should respond;
An answerer that determines which one of the first and second response systems should respond to the input voice data based on the result of the voice recognition processing by the first response system. A system determination unit (32A);
An answer output unit for causing the speaker (14) to output the answer voice data generated by the answer side answer system, which is the answer system determined to respond to the input voice data in the answer side system judgment unit ( and 18D), with a,
The answering system determination unit
When the result of the voice recognition processing is associated with the correspondence list, the first response system determines that the first response system should respond to the input voice data,
If the result of the speech recognition process is not associated with the correspondence list, the response control system determines that the second response system should respond to the input speech data .
前記回答側システム判定部によって前記入力音声データに対して応答するべきと判定されなかった方の応答システムである準回答側応答システムが生成した応答音声データを前記スピーカに出力することを要求するユーザ操作を、受け付けたか否かを判定する別回答要求判定部(18G)を備え、
前記回答出力部は、前記準回答側応答システムで前記ユーザ操作を受け付けたと前記別回答要求判定部が判定した場合には、前記準回答側応答システムの応答音声データを前記スピーカに音声出力させることを特徴とする応答制御システム。 In claim 1 ,
A user who requests to output the response voice data generated by the semi-answer side response system, which is a response system that is not determined to respond to the input voice data, by the answering system determination unit to the speaker Another response request determination unit (18G) for determining whether or not the operation has been accepted,
When the separate response request determination unit determines that the user operation has been received by the semi-response side response system, the response output unit causes the speaker to output response audio data of the semi-response side response system A response control system characterized by
前記準回答側応答システムより取得した前記応答音声データを、前記別回答要求判定部で前記ユーザ操作を受け付けなかったと判定されるまでは一時保存する一時保存部(18B)を備え、
前記別回答要求判定部で前記ユーザ操作を受け付けたと判定した場合には、前記一時保存部に保存されている前記準回答側応答システムの前記応答音声データを前記スピーカに音声出力させることを特徴とする応答制御システム。 In claim 2 ,
A temporary storage unit (18B) for temporarily storing the response voice data acquired from the semi-response side response system until it is determined that the user operation is not accepted by the separate response request determination unit;
When it is determined that the user operation is received by the separate response request determination unit, the response audio data of the semi-response side response system stored in the temporary storage unit is output by voice to the speaker. Response control system.
前記別回答要求判定部で前記ユーザ操作を受け付けたと判定した場合には、前記入力音声データへの前記音声認識処理の結果に対して、今回前記準回答側応答システムとした応答システムが次回以降は前記回答側応答システムとされるように、前記対応リストの内容を更新する更新部(32B)を備えることを特徴とする応答制御システム。 In claim 3 ,
When it is determined that the user operation has been received by the separate response request determination unit, the response system that is the semi-response side response system this time is the next time or later with respect to the result of the speech recognition processing on the input speech data. A response control system comprising an update unit (32B) for updating the contents of the correspondence list so as to be the answer side response system.
前記第1の応答システムによる前記音声認識処理の結果から同一或いは類似性の高い内容と判定される前記入力音声データが、一定時間以内に再度入力された場合には、
前回に前記準回答側応答システムとした応答システムを前記回答側応答システムとするとともに、
前回に前記準回答側応答システムとした応答システムが次回以降は前記回答側応答システムとされるように、前記対応リストの内容を更新することを特徴とする応答制御システム。 In any one of Claim 2 to 4 ,
When the input voice data determined to be the same or highly similar content from the result of the voice recognition processing by the first response system is input again within a predetermined time,
The response system that was the quasi-answer side response system last time is the answer side response system,
The response control system updates the contents of the correspondence list so that the response system that was the semi-answer side response system last time is the answer side response system from the next time.
前記応答制御システムは、表示装置(13)と、
前記第1、第2の応答システムのそれぞれに対応するエージェント画像を前記表示装置に同時に表示するエージェント表示制御部(18F)と、を備え、
前記エージェント表示制御部は、前記回答出力部によって前記スピーカに出力されている前記応答音声データを生成した前記応答システムに対応する前記エージェント画像が話しているように表示することを特徴とする応答制御システム。 In any one of Claim 1 to 5 ,
The response control system includes a display device (13),
An agent display control unit (18F) that simultaneously displays on the display device an agent image corresponding to each of the first and second response systems;
The agent display control unit displays the agent image corresponding to the response system that has generated the response voice data output to the speaker by the answer output unit so that the agent image is speaking. system.
前記応答制御システムは、車両に搭載されている車載器(1)と、車両外部に設けられて前記車載器と無線通信を実施する第1センター(3)と、車両外部に設けられて前記車載器と無線通信を実施する第2センター(4)と、を備え、
前記車載器が、前記音声取得部と、前記回答出力部と、を備え、
前記第1センターが、前記第1の応答システムとしての機能を担うとともに、前記回答側システム判定部を備え、
前記第2センターが、前記第2の応答システムとしての機能を担うことを特徴とする応答制御システム。 In any one of Claim 1 to 6 ,
The response control system includes an on-vehicle device (1) mounted on a vehicle, a first center (3) provided outside the vehicle to perform wireless communication with the on-vehicle device, and an on-vehicle device provided outside the vehicle. A second center (4) for performing wireless communication with the vessel,
The vehicle-mounted device includes the voice acquisition unit and the answer output unit,
The first center is responsible for the function as the first response system and includes the answering system determination unit.
The response control system, wherein the second center has a function as the second response system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013158282A JP6281202B2 (en) | 2013-07-30 | 2013-07-30 | Response control system and center |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013158282A JP6281202B2 (en) | 2013-07-30 | 2013-07-30 | Response control system and center |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015028566A JP2015028566A (en) | 2015-02-12 |
JP6281202B2 true JP6281202B2 (en) | 2018-02-21 |
Family
ID=52492298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013158282A Active JP6281202B2 (en) | 2013-07-30 | 2013-07-30 | Response control system and center |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6281202B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017152948A (en) * | 2016-02-25 | 2017-08-31 | 株式会社三菱東京Ufj銀行 | Information provision method, information provision program, and information provision system |
JP6643468B2 (en) * | 2016-05-18 | 2020-02-12 | シャープ株式会社 | Response control device, control program, information processing method, and communication system |
JP7044040B2 (en) | 2018-11-28 | 2022-03-30 | トヨタ自動車株式会社 | Question answering device, question answering method and program |
JP2020144275A (en) * | 2019-03-07 | 2020-09-10 | 本田技研工業株式会社 | Agent device, control method of agent device, and program |
JP7280074B2 (en) * | 2019-03-19 | 2023-05-23 | 本田技研工業株式会社 | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3965538B2 (en) * | 1998-02-27 | 2007-08-29 | 株式会社エクォス・リサーチ | Agent device |
JP2003114875A (en) * | 2001-10-05 | 2003-04-18 | Fujitsu Ltd | Server machine, client machine, server program, client program, server program storage medium, and client program storage medium |
JP3862169B2 (en) * | 2002-12-05 | 2006-12-27 | オムロン株式会社 | Speech recognition service mediation system and speech recognition master reference method used therefor |
JP4951934B2 (en) * | 2005-10-26 | 2012-06-13 | 株式会社Jvcケンウッド | Navigation device, navigation method, navigation system, and program |
US7933777B2 (en) * | 2008-08-29 | 2011-04-26 | Multimodal Technologies, Inc. | Hybrid speech recognition |
JP5464078B2 (en) * | 2010-06-30 | 2014-04-09 | 株式会社デンソー | Voice recognition terminal |
JP5658641B2 (en) * | 2011-09-15 | 2015-01-28 | 株式会社Nttドコモ | Terminal device, voice recognition program, voice recognition method, and voice recognition system |
JP5637131B2 (en) * | 2011-12-26 | 2014-12-10 | 株式会社デンソー | Voice recognition device |
JP5821639B2 (en) * | 2012-01-05 | 2015-11-24 | 株式会社デンソー | Voice recognition device |
JP5220953B1 (en) * | 2012-12-01 | 2013-06-26 | 和夫 金子 | Product information providing system, product information providing device, and product information output device |
-
2013
- 2013-07-30 JP JP2013158282A patent/JP6281202B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015028566A (en) | 2015-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7822613B2 (en) | Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus | |
US8903651B2 (en) | Information terminal, server device, searching system, and searching method thereof | |
US10679620B2 (en) | Speech recognition arbitration logic | |
US20190147849A1 (en) | Natural language generation based on user speech style | |
US20150039316A1 (en) | Systems and methods for managing dialog context in speech systems | |
JP6281202B2 (en) | Response control system and center | |
US20120253823A1 (en) | Hybrid Dialog Speech Recognition for In-Vehicle Automated Interaction and In-Vehicle Interfaces Requiring Minimal Driver Processing | |
US20190122661A1 (en) | System and method to detect cues in conversational speech | |
JP6202041B2 (en) | Spoken dialogue system for vehicles | |
US11380325B2 (en) | Agent device, system, control method of agent device, and storage medium | |
US20180052658A1 (en) | Information processing device and information processing method | |
KR20200098079A (en) | Dialogue system, and dialogue processing method | |
US20200286479A1 (en) | Agent device, method for controlling agent device, and storage medium | |
JP2023179631A (en) | Information processing device | |
US9715878B2 (en) | Systems and methods for result arbitration in spoken dialog systems | |
CN109568973A (en) | Interface, dialogue method, server unit and computer readable storage medium | |
JPWO2017175442A1 (en) | Information processing apparatus and information processing method | |
EP3855305A1 (en) | Agent system, agent server, and agent program | |
JP2017181667A (en) | Voice recognition apparatus and voice recognition method | |
WO2010073406A1 (en) | Information providing device, communication terminal, information providing system, information providing method, information output method, information providing program, information output program, and recording medium | |
WO2019234486A1 (en) | Speech recognition system, information processing device and server | |
JP2020152298A (en) | Agent device, control method of agent device, and program | |
JP2020060623A (en) | Agent system, agent method, and program | |
WO2011030404A1 (en) | Operating system and operating method | |
KR20060057726A (en) | Conversation type navigation system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180108 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6281202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |