JP2016071192A - Interaction device and interaction method - Google Patents

Interaction device and interaction method Download PDF

Info

Publication number
JP2016071192A
JP2016071192A JP2014201176A JP2014201176A JP2016071192A JP 2016071192 A JP2016071192 A JP 2016071192A JP 2014201176 A JP2014201176 A JP 2014201176A JP 2014201176 A JP2014201176 A JP 2014201176A JP 2016071192 A JP2016071192 A JP 2016071192A
Authority
JP
Japan
Prior art keywords
user
dialogue
information
interactive
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014201176A
Other languages
Japanese (ja)
Other versions
JP6359935B2 (en
Inventor
渉 内田
Wataru Uchida
渉 内田
孝輔 辻野
Kosuke Tsujino
孝輔 辻野
公亮 角野
Kosuke Kadono
公亮 角野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014201176A priority Critical patent/JP6359935B2/en
Publication of JP2016071192A publication Critical patent/JP2016071192A/en
Application granted granted Critical
Publication of JP6359935B2 publication Critical patent/JP6359935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an interaction device and an interaction method that can start an interaction between a system and a user at an appropriate timing.SOLUTION: An interaction device 100 includes a detection part 130 that can execute a plurality of detection modes for detecting a timing to start an interaction with a user in a hands-free state, and a switching part 140 that switches between the detection modes of the detection part 130 according to the presence/absence of information to be transferred from the interaction device 100 to the user.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザとの対話を行うための対話装置、およびユーザと対話装置との間で対話を行うための対話方法に関する。   The present invention relates to a dialog device for performing a dialog with a user and a dialog method for performing a dialog between the user and the dialog device.

近年、音声認識並びにユーザの自然な発話内容を理解して受け答えを行う対話技術が進化している。スマートフォン、ロボットデバイスなどに様々なセンサを備えることによって、ユーザの存在を知覚し、あたかも人間と対話するように対話を行うことができる対話エージェント型の対話装置が実現されつつある。   In recent years, dialogue technology has evolved that recognizes and answers voice recognition and natural utterances of users. By providing various sensors in a smartphone, a robot device, and the like, a dialog agent type dialog device capable of perceiving the presence of a user and performing a dialog as if interacting with a human being is being realized.

“Pepper(登録商標)とは”、ソフトバンク株式会社、[online]、[平成26年9月11日検索]、インターネット(http://www.softbank.jp/robot/products/)“What is Pepper (registered trademark)”, SOFTBANK CORP., [Online], [searched on September 11, 2014], Internet (http://www.softbank.jp/robot/products/)

対話装置とユーザとの対話(インタラクション)は、ユーザのボタン操作を契機として開始することもできるが、ボタン操作がなくても対話を開始することができる。たとえば、対話装置は、ユーザの音声を検出することによって、ユーザに話しかけて対話を開始することができる。また、対話装置は、カメラによってユーザの顔などを検出することによって、ユーザが近くにいる場合にのみ、ユーザに話しかけて対話を開始することもできる。この場合、ユーザは、対話装置のボタン操作などを行わない状態(以下「ハンズフリー状態」という。)で、対話装置との対話を開始することができる。   The dialogue (interaction) between the dialogue apparatus and the user can be started by the user's button operation, but the dialogue can be started without the button operation. For example, the interactive device can speak to the user and start the conversation by detecting the user's voice. In addition, the dialogue apparatus can detect the user's face and the like with a camera, and can speak to the user and start a dialogue only when the user is nearby. In this case, the user can start a dialogue with the dialogue device in a state where no button operation or the like of the dialogue device is performed (hereinafter referred to as “hands-free state”).

しかしながら、ユーザが対話装置の近くで発話したからといって、ユーザが対話装置と対話しようとする意思(対話意思)を有しているとは限らない。そのため、ユーザが対話意思を有していないにもかかわらず、ユーザの発話が対話装置への話しかけであると判断し、対話装置が誤ったタイミングで対話を開始してしまうおそれがある。   However, just because the user speaks near the dialog device does not necessarily mean that the user has an intention to interact with the dialog device (interaction intention). For this reason, even though the user does not have an intention to interact, it is determined that the user's utterance is a conversation to the interaction device, and the interaction device may start an interaction at an incorrect timing.

“Pepper”などのロボット型音声対話システム(非特許文献1参照)では、カメラによる顔検出技術を組み合わせて、ユーザの顔を発見した際に対話を開始する機構を実装している。しかし、このシステムではユーザが近くにいないのにシステムから話しかけてしまう問題は解決できるものの、システムが周囲の音に反応して誤って対話を開始してしまう問題は解決できない。   A robotic voice dialogue system such as “Pepper” (see Non-Patent Document 1) implements a mechanism for starting a dialogue when a user's face is found by combining a face detection technique using a camera. However, this system can solve the problem that the user talks from the system when the user is not nearby, but cannot solve the problem that the system erroneously starts a dialogue in response to surrounding sounds.

本発明は、上記問題点に鑑みてなされたものであり、適切なタイミングでユーザとの対話を開始することが可能な対話装置および対話方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an interactive apparatus and an interactive method capable of starting an interaction with a user at an appropriate timing.

本発明の一態様に係る対話装置は、ユーザとの対話を行うための対話装置であって、ハンズフリー状態にあるユーザとの対話を開始するタイミングを検出するための複数の検出モードを実行可能に構成された検出部と、対話装置からユーザへ伝達すべき情報の有無に応じて、検出部の検出モードを切り替える切替部と、を備える。   An interactive apparatus according to an aspect of the present invention is an interactive apparatus for performing a dialog with a user, and is capable of executing a plurality of detection modes for detecting timing for starting a dialog with a user in a hands-free state. And a switching unit that switches the detection mode of the detection unit according to the presence or absence of information to be transmitted from the interactive device to the user.

本発明の一態様に係る対話方法は、ユーザと対話装置との間で対話を行うための対話方法であって、対話装置が、ハンズフリー状態にあるユーザとの対話を開始するタイミングを検出するための複数の検出モードのうちいずれかの検出モードを用いて、対話を開始するタイミングを検出するステップと、対話装置が、対話装置からユーザへ伝達すべき情報の有無に応じて、検出するステップにおいて用いる検出モードを切り替えるステップと、を含む。   A dialog method according to an aspect of the present invention is a dialog method for performing a dialog between a user and a dialog device, and detects a timing at which the dialog device starts a dialog with a user in a hands-free state. Detecting a timing at which a dialog is started using any one of a plurality of detection modes for detecting, and a step in which the dialog device detects whether there is information to be transmitted from the dialog device to the user And switching the detection mode used in.

上記の対話装置または対話方法では、対話装置からユーザへ伝達すべき情報の有無に応じて切り替えられた検出モードを用いて、ユーザとの対話を開始するタイミングを検出する。これにより、対話を開始すべきか否かなどの基準を柔軟に変更し、適切なタイミングで対話を開始することができる。   In the above interactive apparatus or interactive method, the timing for starting an interaction with the user is detected using a detection mode switched according to the presence or absence of information to be transmitted from the interactive apparatus to the user. Accordingly, it is possible to flexibly change a criterion such as whether or not to start the dialogue and to start the dialogue at an appropriate timing.

また、複数の検出モードは、ユーザの対話意思を検出する第1の検出モードと、ユーザの対話意思を検出し且つユーザが対話装置から所定範囲内に位置することを検出する第2の検出モードとを含んでいてもよく、切替部は、対話装置からユーザへ伝達すべき情報がない場合には、検出部を第1の検出モードに切り替え、対話装置からユーザへ伝達すべき情報が有る場合には、検出部を第2の検出モードに切り替えてもよい。これにより、ユーザへ伝達すべき情報がない場合には、第1の検出モードを用いて、ユーザに対話意思が有るときにのみ、対話を開始することができる。したがって、たとえばユーザと他人との会話に反応して対話を開始してしまうことを防ぐことができる。また、ユーザへ伝達すべき情報が有るときには、第2の検出モードを用いてユーザが所定範囲内に位置している(近くにいる)ときにユーザとの対話を開始して、情報を確実にユーザへ伝達することができる。よって、適切なタイミングでユーザとの対話を開始することができる。   The plurality of detection modes include a first detection mode for detecting the user's intention to interact and a second detection mode for detecting the user's intention to interact and detecting that the user is located within a predetermined range from the interaction device. When there is no information to be transmitted from the interactive device to the user, the switching unit switches the detection unit to the first detection mode, and there is information to be transmitted from the interactive device to the user. Alternatively, the detection unit may be switched to the second detection mode. Thus, when there is no information to be transmitted to the user, the first detection mode can be used to start the conversation only when the user has an intention to interact. Therefore, for example, it is possible to prevent a conversation from being started in response to a conversation between the user and another person. Also, when there is information to be transmitted to the user, the second detection mode is used to start the dialogue with the user when the user is located within the predetermined range (nearly), thereby ensuring the information. It can be communicated to the user. Therefore, the dialogue with the user can be started at an appropriate timing.

また、第1の検出モードでは、検出部が、ユーザの音声中の所定のキーワード、ユーザの所定の動作、ユーザの対話装置への接触、の少なくとも1つを検出することによって、ユーザの対話意思を検出してもよい。これにより、たとえば、ユーザの音声発話による対話装置への呼びかけ、ユーザの動作(ジェスチャー)、または対話装置へのユーザの接触行為などを契機として、対話を開始することができる。   Further, in the first detection mode, the detection unit detects at least one of a predetermined keyword in the user's voice, a predetermined operation of the user, and a contact with the user's interactive device. May be detected. Thereby, for example, a dialogue can be started with a call to a dialogue device by a user's voice utterance, a user's action (gesture), or a user's contact action with the dialogue device.

また、第2の検出モードでは、検出部が、カメラ画像によって検出されるユーザの存在、人感センサによって検出されるユーザの存在、対話装置以外の装置のユーザ操作によって検出されるユーザの存在、時刻および照度に基づいて推論されるユーザの存在、の少なくとも1つを検出することによって、ユーザの対話意思を検出し且つユーザが対話装置から所定範囲内に位置することを検出してもよい。これにより、ユーザの存在を明確に検出して、より適切なタイミングでユーザとの対話を開始することができる。   In the second detection mode, the detection unit detects the presence of a user detected by a camera image, the presence of a user detected by a human sensor, the presence of a user detected by a user operation of a device other than the interactive device, By detecting at least one of the presence of the user inferred based on time and illuminance, the user's intention to interact may be detected and the user may be located within a predetermined range from the interaction device. Accordingly, it is possible to clearly detect the presence of the user and start a dialog with the user at a more appropriate timing.

また、対話装置は、対話装置からユーザへ伝達すべき優先度が所定レベル以上の情報が有り且つユーザが対話装置から所定範囲よりも外側に位置する場合に、ユーザを所定範囲内に誘導するための表現を出力する出力制御部、をさらに備えてもよい。これにより、ユーザを対話装置の近くに誘導して、早期に対話を開始することができる。したがって、ユーザへ伝達すべき優先度の高い情報を、早期にユーザに伝達することができる。   In addition, the interactive device guides the user within the predetermined range when there is information whose priority to be transmitted from the interactive device to the user is higher than a predetermined level and the user is located outside the predetermined range from the interactive device. An output control unit that outputs the expression of Thereby, a user can be guide | induced to the vicinity of a dialog apparatus and a dialog can be started at an early stage. Therefore, high priority information to be transmitted to the user can be transmitted to the user at an early stage.

また、対話装置は、対話装置からユーザへ伝達すべき優先度が所定レベル未満の情報が有る場合には、当該情報の存在をユーザに伝達するための表現を出力する出力制御部、をさらに備えてもよい。これにより、ユーザに、情報の存在を知らせて、ユーザの興味を喚起することができる。したがって、ユーザが対話意思を有するようになる可能性が高まる。   In addition, the interactive device further includes an output control unit that outputs an expression for transmitting the presence of the information to the user when there is information whose priority to be transmitted from the interactive device to the user is less than a predetermined level. May be. Thereby, the presence of information can be informed to the user and the user's interest can be aroused. Therefore, the possibility that the user has an intention to interact increases.

本発明によれば、適切なタイミングで対話を開始することが可能になる。   According to the present invention, it is possible to start a conversation at an appropriate timing.

対話システムの概略構成を示す図である。It is a figure which shows schematic structure of a dialogue system. 対話装置の詳細構成を示す図である。It is a figure which shows the detailed structure of a dialogue apparatus. 対話装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a dialogue apparatus. 伝達情報データテーブルの一例を示す図である。It is a figure which shows an example of the transmission information data table. 応答データテーブルの一例を示す図である。It is a figure which shows an example of a response data table. キャラクタの動作例を示す図である。It is a figure which shows the operation example of a character. 対話装置の状態遷移図である。It is a state transition diagram of a dialogue apparatus. 対話装置の状態遷移を説明するためのフローチャートの一例である。It is an example of the flowchart for demonstrating the state transition of a dialogue apparatus.

以下、本発明の実施形態について、図面を参照しながら説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant descriptions are omitted.

図1は、実施形態に係る対話装置および対話方法が適用される、対話システムの概要を示す図である。図1に示すように、対話システム1においては、ユーザ10と、対話装置100との対話が行われる。   FIG. 1 is a diagram illustrating an outline of a dialogue system to which the dialogue apparatus and the dialogue method according to the embodiment are applied. As shown in FIG. 1, in the dialogue system 1, a dialogue between the user 10 and the dialogue device 100 is performed.

対話装置100は、インタフェース部110を含む。図1に示す例では、インタフェース部110の一部(後述の図2のディスプレイ115)に、ヒト型のキャラクタ11が表示されている。このようなヒト型のキャラクタ11の表示によって、ユーザ10は、あたかも人間と対話するように、対話装置100と対話することができる。   The interactive apparatus 100 includes an interface unit 110. In the example shown in FIG. 1, the human character 11 is displayed on a part of the interface unit 110 (a display 115 in FIG. 2 described later). The display of the humanoid character 11 allows the user 10 to interact with the interaction device 100 as if interacting with a human.

対話装置100は、通信ネットワーク50を介して、サーバ200と接続可能とされている。これにより、対話装置100は、ユーザ10との対話に用いるための多くの情報を、サーバ200から取得することができる。   The interactive device 100 can be connected to the server 200 via the communication network 50. Thereby, the dialogue apparatus 100 can acquire a lot of information to be used for the dialogue with the user 10 from the server 200.

対話装置100は、ユーザ10との対話を行うことが可能であればよく、その外観や大きさなどは図1に示す例に限定されるものではない。たとえば、対話装置100は、スマートフォンのような端末装置を用いて好適に実現される。そのような端末装置は、ユーザ10との対話に必要なスピーカ、マイク、各種センサなどの様々なデバイス、およびユーザ10との接点となるディスプレイを備えており、また、通信ネットワーク50を介してサーバ200と通信することができるからである。また、対話装置100として、人間の形状を模した物理的なロボットなどを用いてもよい。   The dialog device 100 only needs to be able to perform a dialog with the user 10, and its appearance and size are not limited to the example shown in FIG. 1. For example, the interactive device 100 is suitably realized using a terminal device such as a smartphone. Such a terminal device includes various devices such as a speaker, a microphone, and various sensors necessary for interaction with the user 10, and a display serving as a contact point with the user 10, and a server via the communication network 50. This is because it is possible to communicate with 200. Further, as the interactive device 100, a physical robot imitating a human shape may be used.

ユーザ10は、ハンズフリー状態で、対話装置100と対話することができる。本明細書におけるハンズフリー状態とは、ユーザ10が対話装置100に接触して行う操作(たとえば対話装置100のボタン操作など)を行わない状態を意味する。なお、ユーザ10が対話装置100以外のものに触れている場合でも、対話装置100に接触していなければ、ハンズフリー状態とされる。   The user 10 can interact with the interaction apparatus 100 in a hands-free state. The hands-free state in this specification means a state in which an operation performed by the user 10 in contact with the interactive device 100 (for example, a button operation of the interactive device 100) is not performed. Even when the user 10 is touching something other than the interactive device 100, if the user 10 is not touching the interactive device 100, a hands-free state is set.

ユーザ10と対話装置100との対話は、ユーザ10が対話装置100の近くにいる状態で行われることが好ましい。図1において、対話に好ましいユーザ10と対話装置100との位置関係が、領域Rとして破線で例示される。領域Rの範囲は、ユーザ10が対話装置100に表示されているキャラクタ11を良好に視認することができ、また、対話装置100からの音声を良好に認識できるような範囲とすることができる。そのような領域Rの範囲は、たとえば対話装置100から数十センチ〜数メートル程度の範囲である。図1に示す例では、領域Rは、対話装置100の正面側(インタフェース部110が設けられている側)に広く設定され、対話装置100の側面および背面には狭く設定されている。すなわち、領域Rは、対話装置100の正面側に長く設定され、対話装置100の側面および背面に短く設定される。このような領域R内にユーザ10が位置するときには、ユーザ10は対話装置100の正面と向かいあって対話できる可能性が高まるので、対話をスムーズに(ユーザ10にとって快適に)行うことができる。   The dialogue between the user 10 and the dialogue device 100 is preferably performed in a state where the user 10 is near the dialogue device 100. In FIG. 1, the positional relationship between the user 10 and the interaction device 100 that are preferable for the interaction is illustrated as a region R by a broken line. The range of the region R can be set such that the user 10 can visually recognize the character 11 displayed on the interactive device 100 and can recognize the voice from the interactive device 100. The range of such a region R is, for example, a range from several tens of centimeters to several meters from the interactive device 100. In the example illustrated in FIG. 1, the region R is set to be wide on the front side (side on which the interface unit 110 is provided) of the interactive device 100, and is set to be narrow on the side surface and back surface of the interactive device 100. That is, the region R is set to be long on the front side of the interactive device 100 and is set to be short on the side surface and back surface of the interactive device 100. When the user 10 is located in such a region R, the possibility that the user 10 can interact with the front of the interactive device 100 is increased, so that the conversation can be performed smoothly (comfortable for the user 10).

図2は、対話装置100の詳細構成を示す図である。図2に示すように、対話装置100は、インタフェース部110と、データ処理部120と、検出部130と、切替部140と、制御部150と、保存部160と、伝達情報決定部165と、通信部170とを含む。   FIG. 2 is a diagram illustrating a detailed configuration of the interactive apparatus 100. As shown in FIG. 2, the dialogue apparatus 100 includes an interface unit 110, a data processing unit 120, a detection unit 130, a switching unit 140, a control unit 150, a storage unit 160, a transmission information determination unit 165, And a communication unit 170.

インタフェース部110は、対話装置100の外部(主に図1のユーザ10)と情報をやり取りするための部分である。インタフェース部110は、カメラ111と、人感センサ112と、赤外線センサ113と、照度センサ(推論センサ)114と、ディスプレイ115と、マイク116と、スピーカ117と、操作パネル118とを含む。   The interface unit 110 is a part for exchanging information with the outside of the interactive apparatus 100 (mainly the user 10 in FIG. 1). The interface unit 110 includes a camera 111, a human sensor 112, an infrared sensor 113, an illuminance sensor (inference sensor) 114, a display 115, a microphone 116, a speaker 117, and an operation panel 118.

データ処理部120は、インタフェース部110に入力された情報の解析などに必要なデータ処理を行い、また、インタフェース部110が種々の出力する情報の生成などに必要なデータ処理を行う部分である。データ処理部120は、画像処理部121と、センサデータ処理部122と、出力処理部123と、音声認識部124と、音声合成部125と、入力処理部126とを含む。   The data processing unit 120 is a part that performs data processing necessary for analysis of information input to the interface unit 110 and performs data processing necessary for generation of various information output by the interface unit 110. The data processing unit 120 includes an image processing unit 121, a sensor data processing unit 122, an output processing unit 123, a speech recognition unit 124, a speech synthesis unit 125, and an input processing unit 126.

以下、インタフェース部110およびデータ処理部120に含まれる各部について説明する。   Hereinafter, each unit included in the interface unit 110 and the data processing unit 120 will be described.

カメラ111は、たとえばユーザ10を撮像する。たとえば、画像処理部121は、カメラ画像におけるユーザ10の顔の位置(または領域)を検出する。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google(登録商標)社によって提供されるスマートフォン用OSとして知られているアンドロイド(登録商標)に提供される種々のAPI(Application Program Interface)に関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/media/FaceDetector.html
The camera 111 images the user 10, for example. For example, the image processing unit 121 detects the position (or region) of the face of the user 10 in the camera image. Various known techniques can be used for data processing for that purpose. For example, information on various APIs (Application Program Interface) provided to Android (registered trademark) known as an OS for smartphones provided by google (registered trademark) (for example, information for obtaining, usage information) Information etc.) is listed on the following site.
http://developer.android.com/reference/android/media/FaceDetector.html

さらに、画像処理部121は、カメラ111が撮像した画像データに基づいて、ユーザ10の特定の動作(たとえば手を掲げるなどのジェスチャ)を検出することもできる。たとえば、ユーザの姿勢などを検出する機能を有する製品が下記のサイトで公知となっており、その技術を対話装置100に適用したり、あるいは、それらの製品と対話装置100とを通信可能に構成してそれらの製品から出力される情報を利用することで、ユーザ10の動作を検出することができる。
http://www.microsoft.com/en-us/kinectforwindows/
Furthermore, the image processing unit 121 can also detect a specific action of the user 10 (for example, a gesture such as raising a hand) based on the image data captured by the camera 111. For example, products having a function of detecting the user's posture and the like are publicly known at the following sites, and the technology is applied to the interactive device 100, or the products and the interactive device 100 can communicate with each other. By using the information output from those products, the operation of the user 10 can be detected.
http://www.microsoft.com/en-us/kinectforwindows/

人感センサ112は、物体(人)の接近を検出する。人感センサ112として、たとえば、赤外光(あるいは音波)を発して、物体からの反射光(あるいは反射波)を検出するタイプのセンサを用いることができる。センサデータ処理部122は、人感センサ112の検出結果に基づいて、ユーザ10が対話装置100の近くにいるか否かを判断することができる。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/hardware/SensorManager.html
The human sensor 112 detects the approach of an object (person). As the human sensor 112, for example, a sensor that emits infrared light (or sound waves) and detects reflected light (or reflected waves) from an object can be used. The sensor data processing unit 122 can determine whether the user 10 is near the interactive device 100 based on the detection result of the human sensor 112. Various known techniques can be used for data processing for that purpose. For example, information on various APIs provided to Android, which is known as the OS for smartphones provided by google (for example, information for obtaining, usage information, etc.) is described in the following site .
http://developer.android.com/reference/android/hardware/SensorManager.html

赤外線センサ113は、赤外線を検出する。たとえば、ユーザ10が対話装置100の近くでテレビなどを操作するためにリモコンを操作すると、赤外線センサ113は、リモコンから発せられる赤外線を検出する。センサデータ処理部122は、赤外線センサ113の検出結果に基づいて、ユーザ10が対話装置100の近くにいるか否かを判断する。たとえば、赤外線センサ113が赤外線を検出すると、ユーザ10が対話装置100の近くにいると判断される。   The infrared sensor 113 detects infrared rays. For example, when the user 10 operates a remote controller to operate a television or the like near the interactive device 100, the infrared sensor 113 detects infrared rays emitted from the remote controller. The sensor data processing unit 122 determines whether or not the user 10 is near the interactive apparatus 100 based on the detection result of the infrared sensor 113. For example, when the infrared sensor 113 detects infrared rays, it is determined that the user 10 is near the interactive apparatus 100.

照度センサ114は、周囲の明るさ(照度)を検出する。センサデータ処理部122は、照度センサ114の検出結果と、現在の時刻(時間帯)とに基づいて、ユーザ10が対話装置100の近くにいるか否かを推論(判断)する。たとえば、夜間に、照度センサ114によって高い照度が検出された場合には、ユーザ10が対話装置100の近くにいると判断される。このようにして、照度センサ114を、ユーザ10の存在を推論する推論センサとして機能させることができる。現在の時刻は、たとえば対話装置100に含まれるタイマ(図示しない)の機能を用いて取得することができる。照度の検出のためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。なお、センサデータ処理部122は、照度センサ114の検出結果に代えて、カメラ111によって撮像された画像における照度(明度)と、現在の時刻とに基づいて、上記の推論を行うこともできる。
http://developer.android.com/reference/android/hardware/SensorManager.html
The illuminance sensor 114 detects ambient brightness (illuminance). The sensor data processing unit 122 infers (determines) whether the user 10 is near the interactive device 100 based on the detection result of the illuminance sensor 114 and the current time (time zone). For example, when high illuminance is detected by the illuminance sensor 114 at night, it is determined that the user 10 is near the interactive apparatus 100. In this way, the illuminance sensor 114 can function as an inference sensor that infers the presence of the user 10. The current time can be obtained by using a timer (not shown) function included in the interactive apparatus 100, for example. Various known techniques can be used for data processing for detecting illuminance. For example, information on various APIs provided to Android, which is known as the OS for smartphones provided by google (for example, information for obtaining, usage information, etc.) is described in the following site . Note that the sensor data processing unit 122 can perform the above inference based on the illuminance (brightness) in the image captured by the camera 111 and the current time, instead of the detection result of the illuminance sensor 114.
http://developer.android.com/reference/android/hardware/SensorManager.html

ディスプレイ115は、ユーザ10が視認可能な情報を表示する。出力処理部123は、ディスプレイ115の表示に必要なデータ処理を行う。たとえばディスプレイ115におけるキャラクタ11の動作を表すのに必要なデータ処理が、出力処理部123によって行われる。ディスプレイ115は、ユーザ10の対話装置100への接触を検出できるように、タッチパネルとすることもできる。   The display 115 displays information that the user 10 can visually recognize. The output processing unit 123 performs data processing necessary for display on the display 115. For example, the data processing necessary to represent the action of the character 11 on the display 115 is performed by the output processing unit 123. The display 115 can also be a touch panel so that the contact of the user 10 with the interactive device 100 can be detected.

マイク116は、ユーザ10の音声を検出する。音声認識部124は、マイク116の検出結果に基づいて、ユーザ10の音声を認識する。また、音声認識部124は、認識した音声を所定のフォーマット(たとえばテキストの形式)に変換する。音声を認識するためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/speech/RecognizerIntent.html
The microphone 116 detects the voice of the user 10. The voice recognition unit 124 recognizes the voice of the user 10 based on the detection result of the microphone 116. The voice recognition unit 124 converts the recognized voice into a predetermined format (for example, a text format). Various known techniques can be used for data processing for recognizing speech. For example, information on various APIs provided to Android, which is known as the OS for smartphones provided by google (for example, information for obtaining, usage information, etc.) is described in the following site .
http://developer.android.com/reference/android/speech/RecognizerIntent.html

スピーカ117は、ユーザ10が聴認可能な音声を発する。音声合成部125は、スピーカ117が発する音声を生成するための種々のデータ処理を行う。たとえば、音声合成部125は、各種の音データを合成することによって、テキストの形式で指定された内容(情報)を音声に変換する。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/speech/tts/TextToSpeech.html
The speaker 117 emits sound that can be heard by the user 10. The voice synthesizer 125 performs various data processing for generating a voice emitted from the speaker 117. For example, the speech synthesizer 125 synthesizes various sound data, thereby converting the content (information) specified in the text format into speech. Various known techniques can be used for data processing for that purpose. For example, information on various APIs provided to Android, which is known as the OS for smartphones provided by google (for example, information for obtaining, usage information, etc.) is described in the following site .
http://developer.android.com/reference/android/speech/tts/TextToSpeech.html

操作パネル118は、ユーザ10の操作(ユーザ操作)を検出する。入力処理部126は、操作パネル118の検出結果に基づいて、ユーザ操作に応じた必要なデータ処理を行う。なお、ディスプレイ115がタッチパネルの場合には、ユーザ10がディスプレイ115に表示されているキャラクタ11に接触(タップ)したことを検出するとによっても、ユーザ操作に応じた必要なデータ処理が行われる。   The operation panel 118 detects an operation (user operation) of the user 10. The input processing unit 126 performs necessary data processing according to the user operation based on the detection result of the operation panel 118. In the case where the display 115 is a touch panel, necessary data processing corresponding to the user operation is also performed by detecting that the user 10 has touched (tapped) the character 11 displayed on the display 115.

以上の構成によって、対話装置100は、たとえば、インタフェース部110を介して、外部(ユーザ10を含む)から種々の情報を取得し、また、外部(ユーザ10を含む)に種々の情報を伝達することができる。そして、本実施形態においては、さらに、後述する検出部130、切替部140、制御部150、保存部160、伝達情報決定部165、通信部170などの各要素が協働することによって、ユーザ10との対話が実現される。   With the above configuration, the interactive apparatus 100 acquires various information from the outside (including the user 10) via the interface unit 110, and transmits various information to the outside (including the user 10), for example. be able to. In the present embodiment, each element such as a detection unit 130, a switching unit 140, a control unit 150, a storage unit 160, a transmission information determination unit 165, and a communication unit 170, which will be described later, further collaborates with the user 10. Dialogue with is realized.

検出部130は、ハンズフリー状態にあるユーザ10との対話を開始するタイミングを検出する部分である。検出部130は、複数の検出モードを実行可能に構成される。複数の検出モードは、ユーザ10の対話意思を検出する第1の検出モードと、ユーザ10の対話意思を検出し且つユーザ10が対話装置100から所定範囲内(たとえば図1の領域Rの内側)に位置することを検出する第2の検出モードとを含む。第1の検出モードおよび第2の検出モードの詳細については、後述する。   The detection unit 130 is a part that detects timing for starting a conversation with the user 10 in the hands-free state. The detection unit 130 is configured to be able to execute a plurality of detection modes. The plurality of detection modes include a first detection mode for detecting the user 10's intention to interact, and a user 10's intention to interact and the user 10 within a predetermined range from the interaction device 100 (for example, inside the region R in FIG. 1). 2nd detection mode which detects that it is located in. Details of the first detection mode and the second detection mode will be described later.

切替部140は、検出部130の検出モードを切り替える部分である。切替部140は、対話装置100からユーザ10へ伝達すべき情報の有無に応じて、検出部130の検出モードを切り替える。ユーザ10へ伝達すべき情報の有無は、後述の保存部160を参照して判断される。切替部140は、対話装置100からユーザ10へ伝達すべき情報が無い場合には、検出部130を第1の検出モードに切り替える。一方、切替部140は、対話装置100からユーザ10へ伝達すべき情報が有る場合には、検出部130を第2の検出モードに切り替える。   The switching unit 140 is a part that switches the detection mode of the detection unit 130. The switching unit 140 switches the detection mode of the detection unit 130 according to the presence / absence of information to be transmitted from the interactive device 100 to the user 10. The presence / absence of information to be transmitted to the user 10 is determined with reference to the storage unit 160 described later. When there is no information to be transmitted from the interactive apparatus 100 to the user 10, the switching unit 140 switches the detection unit 130 to the first detection mode. On the other hand, when there is information to be transmitted from the interactive device 100 to the user 10, the switching unit 140 switches the detection unit 130 to the second detection mode.

制御部150は、対話装置100の各要素を制御する部分であり、後述する対話制御部151と出力制御部152とを含んで構成される。ただし、制御部150の機能は、対話制御部151および出力制御部152の機能に限定されるものではない。   The control unit 150 is a part that controls each element of the dialogue apparatus 100 and includes a dialogue control unit 151 and an output control unit 152 described later. However, the function of the control unit 150 is not limited to the functions of the dialogue control unit 151 and the output control unit 152.

保存部160は、対話装置100からユーザ10へ伝達すべき情報を保存する部分である。ここで、図4を参照して、保存部160に保存されている情報の一例について説明する。   The storage unit 160 is a part that stores information to be transmitted from the interactive apparatus 100 to the user 10. Here, an example of information stored in the storage unit 160 will be described with reference to FIG.

図4は、保存部160に保存される情報のデータテーブルの一例を示す図である。図4に示すように、伝達情報データテーブル160aは、積極伝達フラグと、伝達情報と、評価情報とを対応付けて記述している。   FIG. 4 is a diagram illustrating an example of a data table of information stored in the storage unit 160. As shown in FIG. 4, the transmission information data table 160a describes the positive transmission flag, the transmission information, and the evaluation information in association with each other.

積極伝達フラグは、伝達情報が、対話装置100からユーザ10へ積極的に伝達すべき情報であることを示す。図4に示す例では、積極伝達フラグは、「true」と「false」の2通りで表される。積極伝達フラグが「true」の伝達情報は、積極伝達フラグが「false」の伝達情報よりも、対話装置100からユーザ10へ伝達すべき優先度が高い。たとえば各伝達情報について優先度を数値化することによって、優先度が所定値(所定レベル)以上の伝達情報については積極伝達フラグを「true」とし、優先度が所定レベル未満の伝達情報については積極伝達フラグを「false」とすることができる。   The positive transmission flag indicates that the transmission information is information that should be positively transmitted from the interactive apparatus 100 to the user 10. In the example illustrated in FIG. 4, the positive transmission flag is expressed in two ways: “true” and “false”. The transmission information whose active transmission flag is “true” has a higher priority to be transmitted from the interactive device 100 to the user 10 than the transmission information whose active transmission flag is “false”. For example, by quantifying the priority for each piece of transmission information, the positive transmission flag is set to “true” for transmission information whose priority is equal to or higher than a predetermined value (predetermined level), and the transmission information whose priority is lower than a predetermined level is positive. The transmission flag can be “false”.

伝達情報は、対話装置100からユーザ10へ音声で伝達する情報である。図4に示す例では、伝達情報として、「明日は雨が降りそうです。傘をお忘れなく!」、「午後は雷雨になります。雷が鳴り始めたら屋内に避難しましょう!」、「21:00からアニメ「@@」始まるよ。」、「芸能人の##さんが逮捕されたみたい。」などが挙げられる。   The transmission information is information transmitted from the interactive apparatus 100 to the user 10 by voice. In the example shown in FIG. 4, as transmission information, “Tomorrow is likely to rain. Don't forget your umbrella!”, “It will be a thunderstorm in the afternoon. Let's evacuate indoors when thunder starts!”, “ The animation “@@” starts at 21:00. ”,“ It looks like celebrity ## has been arrested. ”

評価情報は、伝達情報の存在をユーザ10に伝達するための情報である。評価情報は、積極伝達フラグが「false」の場合に存在し得る。評価情報は、伝達情報の優先度が所定レベル未満の場合には、伝達情報そのものではなく伝達情報の存在をユーザ10に伝達するための表現として用いられる。図4に示す例では、伝達情報「21:00からアニメ「@@」始まるよ。テレビつけようよ。」および「芸能人の##さんが逮捕されたみたい。」について、評価情報「毎週楽しみだ〜」および「本当に?信じられない」がそれぞれ対応づけられている。   The evaluation information is information for transmitting the presence of transmission information to the user 10. The evaluation information may exist when the positive transmission flag is “false”. When the priority of the transmission information is less than a predetermined level, the evaluation information is used as an expression for transmitting the presence of the transmission information to the user 10 instead of the transmission information itself. In the example shown in FIG. 4, the animation “@@” starts from the transmission information “21:00”. Let's turn on the TV. ”And“ # Entertainer ## seems to have been arrested. ”, The evaluation information“ I'm looking forward to every week ”and“ Is it really unbelievable ”are associated respectively.

再び図2に戻って、制御部150は、対話装置100からユーザ10へ伝達すべき情報を、保存部160から取得することができる。具体的に、制御部150は、積極伝達フラグ(図4)が「true」の伝達情報を、対話装置100からユーザ10へ伝達すべき情報として取得する。   Returning to FIG. 2 again, the control unit 150 can acquire information to be transmitted from the interactive apparatus 100 to the user 10 from the storage unit 160. Specifically, the control unit 150 acquires transmission information whose active transmission flag (FIG. 4) is “true” as information to be transmitted from the interactive apparatus 100 to the user 10.

伝達情報決定部165は、対話装置100からユーザ10に伝達すべき情報を新たに生成して、保存部160に記憶させる。具体的に、伝達情報決定部165は、図4の積極伝達フラグ、伝達情報、および必要に応じて評価情報を生成し、保存部160(の伝達情報データテーブル160a)を更新する。たとえば、伝達情報決定部165は、決まった時刻に外部の天気予報APIを利用して翌日の降水確率を取得する。そして、80%を超えていた場合は新たに保存部160に「明日は雨が降りそうです。傘をお忘れなく!」という情報(テキスト)を、伝達情報として追加保存する。その他にも重要なメールの受信時に、「Aさんからメールが来ているみたいですよ。読みましたか?」というテキストを追加保存する、あらかじめ設定した番組の放送時刻を、番組情報を掲載したWebサイトの情報から確認し、放送時刻近くになったら情報を追加する、など外部で起きた事象を通知する様々な手段の実装が考えられる。積極伝達フラグは取得元によって「true」または「false」を設定する。たとえば天気予報やメールの場合は「true」、番組情報やニュースの場合は「false」を設定する。評価情報も、情報の取得元と対応付けた固定の文言を設定することで実現できる。たとえば番組情報の場合は「毎週楽しみだー」、ニュース情報の場合は「本当に?信じられない」などの文言を設定する。   The transmission information determination unit 165 newly generates information to be transmitted from the interactive apparatus 100 to the user 10 and causes the storage unit 160 to store the information. Specifically, the transmission information determination unit 165 generates the positive transmission flag, the transmission information, and the evaluation information as necessary in FIG. 4, and updates the storage unit 160 (the transmission information data table 160a). For example, the transmission information determination unit 165 acquires the precipitation probability of the next day using an external weather forecast API at a fixed time. Then, if it exceeds 80%, information (text) “Tomorrow is likely to rain. Don't forget your umbrella!” Is additionally stored in the storage unit 160 as transmission information. When you receive other important emails, add the text “Your email seems to have come from Mr. A. Did you read it?”, The preset broadcast time of the program, and the website that posted the program information It is possible to implement various means to notify external events such as confirming from the site information and adding information when it is near the broadcast time. The positive transmission flag is set to “true” or “false” depending on the acquisition source. For example, “true” is set for a weather forecast or e-mail, and “false” is set for program information or news. The evaluation information can also be realized by setting a fixed wording associated with the information acquisition source. For example, in the case of program information, words such as “I'm looking forward to every week”, and in the case of news information, “really?

通信部170は、対話装置100の外部(たとえば図1のサーバ200)と通信を行う部分である。通信の手法は特に限定されないが、たとえば通信部170と基地局(図示しない)との無線通信、および、基地局とサーバ200との有線通信などを用いることができる。通信部170を介して、伝達情報決定部165は、対話装置100の外部から情報を取得して、多くの伝達情報を生成することができる。   The communication unit 170 is a part that communicates with the outside of the interactive apparatus 100 (for example, the server 200 in FIG. 1). Although the communication method is not particularly limited, for example, wireless communication between the communication unit 170 and a base station (not shown), wired communication between the base station and the server 200, or the like can be used. Via the communication unit 170, the transmission information determination unit 165 can acquire information from outside the interactive apparatus 100 and generate a large amount of transmission information.

ここで、図3を参照して、対話装置100のハードウェア構成について説明する。図3は、対話装置100のハードウェア構成図である。図3に示されるように、対話装置100は、物理的には、1または複数のCPU(Central Processing unit)21、主記憶装置であるRAM(Random Access Memory)22およびROM(Read Only Memory)23、データ送受信デバイスである通信モジュール26、半導体メモリなどの補助記憶装置27、操作盤(操作ボタンを含む)やタッチパネルなどのユーザの入力を受け付ける入力装置28、ディスプレイなどの出力装置29、カメラなどの撮像装置24、ならびに赤外線センサなどの各種センサ25のハードウェアを備えるコンピュータとして構成され得る。図2における対話装置100の各機能は、たとえば、CPU21、RAM22などのハードウェア上に1または複数の所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール26、入力装置28、出力装置29、撮像装置24および各種センサ25を動作させるとともに、RAM22および補助記憶装置27におけるデータの読み出しおよび書き込みを行うことで実現することができる。   Here, the hardware configuration of the interactive apparatus 100 will be described with reference to FIG. FIG. 3 is a hardware configuration diagram of the interactive apparatus 100. As shown in FIG. 3, the interactive apparatus 100 physically includes one or a plurality of CPUs (Central Processing Units) 21, a RAM (Random Access Memory) 22 and a ROM (Read Only Memory) 23 that are main storage devices. A communication module 26 that is a data transmission / reception device, an auxiliary storage device 27 such as a semiconductor memory, an input device 28 that accepts user input such as an operation panel (including operation buttons) and a touch panel, an output device 29 such as a display, and a camera. It can be configured as a computer including hardware of the imaging device 24 and various sensors 25 such as an infrared sensor. Each function of the interactive device 100 in FIG. 2 is, for example, by loading one or more predetermined computer software on hardware such as the CPU 21 and the RAM 22 to control the communication module 26 and the input device 28 under the control of the CPU 101. This can be realized by operating the output device 29, the imaging device 24, and the various sensors 25, and reading and writing data in the RAM 22 and the auxiliary storage device 27.

再び図2を参照して、検出部130が実行する第1の検出モードおよび第2の検出モードの詳細について説明する。   The details of the first detection mode and the second detection mode executed by the detection unit 130 will be described with reference to FIG. 2 again.

第1の検出モードでは、検出部130は、ユーザ10の対話意思を検出する。具体的に、第1の検出モードでは、検出部130が、ユーザ10の音声中の所定のキーワード、ユーザ10の所定の動作、ユーザ10の対話装置100への接触、の少なくとも1つを検出することによって、ユーザ10の対話意思を検出する。   In the first detection mode, the detection unit 130 detects the user's intention to interact. Specifically, in the first detection mode, the detection unit 130 detects at least one of a predetermined keyword in the voice of the user 10, a predetermined operation of the user 10, and a contact of the user 10 with the interactive device 100. Thus, the user's 10 intention to interact is detected.

ユーザ10の音声中の所定のキーワードの検出は、マイク116および音声認識部124などを用いて行われる。ユーザ10の所定の動作の検出は、カメラ111および画像処理部121などを用いて行われる。ユーザ10の対話装置100への接触の検出は、ディスプレイ115、操作パネル118および入力処理部126などを用いて行われる。なお、先に説明したように、対話装置100として人間の形状を模した物理的なロボットが用いられる場合には、ユーザ10の、ロボットの頭を撫でる、肩を叩くなどの物理的なインタラクションから、ユーザ10の対話意思を検出することが可能である。   Detection of a predetermined keyword in the voice of the user 10 is performed using the microphone 116, the voice recognition unit 124, and the like. Detection of a predetermined operation of the user 10 is performed using the camera 111, the image processing unit 121, and the like. Detection of contact of the user 10 with the interactive device 100 is performed using the display 115, the operation panel 118, the input processing unit 126, and the like. As described above, when a physical robot imitating a human shape is used as the interactive device 100, the physical interaction of the user 10, such as stroking the robot head or hitting the shoulder, is performed. It is possible to detect the user 10's intention to interact.

ユーザ10の音声中の所定のキーワードを検出する場合には、たとえば、「こんにちは」、「おはよう」などの特定のキーワードを予め設定しておき、音声認識部124によって認識されたユーザの発話内容が上記キーワードと一致する(あるいは上記キーワードを含む)場合に、ユーザ10が対話意思を有していると判断することができる。   When detecting a predetermined keyword in the voice of the user 10, for example, "Hello", is set in advance specific keywords such as "Good morning", the speech contents of the user recognized by the speech recognition unit 124 When the keyword matches (or includes the keyword), it can be determined that the user 10 has an intention to interact.

音声入力の方式は連続的な対話を想定したものと異なる、キーワード型の音声入力に特化した方式を採用してもよい。大規模な語彙が必要な場合は携帯通信端末などの記憶領域や計算能力に限りがあるクライアントを想定すると音声認識にサーバ接続が必要な場合があり、音声対話時はサーバ接続型の音声認識、キーワード型音声入力にはそのような手段ではなく端末内部で完結可能な音声認識エンジンを利用することがバッテリ消費の効率等の面で有効である。たとえば、市販の音声認識エンジンでも、同事業者がサーバ型、ローカル型の複数の方式によるエンジンを販売していることが一般的であり、それらに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://www.fuetrek.co.jp/product/vgate/asr.html
The voice input method may be a method specialized for keyword-type voice input, which is different from that assumed for continuous dialogue. When a large-scale vocabulary is required, a server connection may be required for voice recognition, assuming a client with limited storage area and computing power, such as a mobile communication terminal. For keyword-type speech input, it is effective in terms of battery consumption efficiency and the like to use a speech recognition engine that can be completed inside the terminal instead of such means. For example, even with commercially available speech recognition engines, it is common for the same company to sell servers and local types of engines, and information about them (for example, information for obtaining information, usage information) Are listed on the following site.
http://www.fuetrek.co.jp/product/vgate/asr.html

検出部130は、第1の検出モードを実行することによって、ハンズフリー状態にあるユーザ10との対話を開始するタイミング(対話開始契機)を検出することができる。先に説明したように、対話装置100からユーザ10へ伝達すべき情報が無い場合に、切替部140によって、検出部130は第1の検出モードに切り替えられる。具体的に、積極伝達フラグ(図4)が「true」となっている伝達情報が無い場合に、切替部140は、対話装置100からユーザ10へ伝達すべき情報が無いと判断して、検出部130を第1の検出モードに切り替える。このため、第1の検出モードでは、ユーザに対話意思が有るときの対話開始契機(ユーザ主導型対話開始契機)のみが検出される。   The detection part 130 can detect the timing (dialogue start opportunity) which starts the dialogue with the user 10 in the hands-free state by executing the first detection mode. As described above, when there is no information to be transmitted from the interactive apparatus 100 to the user 10, the switching unit 140 switches the detection unit 130 to the first detection mode. Specifically, when there is no transmission information whose active transmission flag (FIG. 4) is “true”, the switching unit 140 determines that there is no information to be transmitted from the interactive device 100 to the user 10 and detects it. The unit 130 is switched to the first detection mode. For this reason, in the first detection mode, only the dialog start opportunity (user-initiated dialog start opportunity) when the user has an intention to interact is detected.

ユーザ主導対話開始契機が検出されると、ユーザ10の対話意思に対話装置100が応答することによって、ユーザ10と対話装置100との対話が開始される。対話は、対話制御部151が対話装置100の各要素を制御することによって行われる。たとえばユーザ10の発話がユーザ主導対話開始契機として検出された場合には、対話装置100は、ユーザ10の発話に応答する発話を行うことによって対話を開始する。対話装置100の応答内容の決定方法はとくに限定されるものではないが、たとえば、ユーザ10の特定の発話(ユーザの音声中の所定のキーワードなど)に対する対話装置100からの応答を図5の応答データテーブル161に記憶しておき、その応答データテーブル161にしたがって応答を決定することができる。応答データテーブル161は、たとえば保存部160に保存される。   When the user-initiated dialogue start opportunity is detected, the dialogue device 100 responds to the user 10's intention to dialogue, whereby the dialogue between the user 10 and the dialogue device 100 is started. The dialogue is performed by the dialogue control unit 151 controlling each element of the dialogue apparatus 100. For example, when the utterance of the user 10 is detected as a user-initiated dialogue start opportunity, the dialogue apparatus 100 starts the dialogue by performing the utterance in response to the utterance of the user 10. The method of determining the response content of the interactive device 100 is not particularly limited. For example, the response from the interactive device 100 to a specific utterance (such as a predetermined keyword in the user's voice) of the user 10 is shown in FIG. A response can be determined according to the response data table 161 stored in the data table 161. The response data table 161 is stored in the storage unit 160, for example.

図5は、応答データテーブル161の一例を示す図である。図5に示すように、応答データテーブル161は、ユーザ発話と、応答情報を対応づけて記述している。図5に示す例では、ユーザ発話「こんにちは」、「おはよう」、「行ってきます」、「ただいま」に対して、システム発話「こんにちは。アナタの名前は?」、「お早うございます!」、「行ってらっしゃい!」、「お帰りなさーい」がそれぞれ対応する。   FIG. 5 is a diagram illustrating an example of the response data table 161. As shown in FIG. 5, the response data table 161 describes user utterances and response information in association with each other. In the example shown in FIG. 5, the user utterance "Hello", "Good morning", "we're going", for the "I'm home", the system utterance "Hello. The name of you?", "Good morning!", " Come on! ”And“ Return home ”correspond respectively.

このようにユーザ10の対話意思(発話など)に対して対話装置100が応答することを契機として、ユーザ10と対話装置100との対話を開始することができる。なお、ユーザ10の対話意思が発話以外の場合、たとえば、ユーザ10の所定の動作、ユーザ10の対話装置100への接触などの場合には、それらに対応する応答データテーブルを作成しておくとよい。   Thus, the interaction between the user 10 and the interaction device 100 can be started when the interaction device 100 responds to the user 10's intention to interact (such as an utterance). When the user 10's intention to interact is other than utterance, for example, when the user 10 performs a predetermined operation, the user 10 touches the interactive device 100, a response data table corresponding to them is created. Good.

第2の検出モードでは、検出部130は、第1の検出モードでの動作(ユーザ10の対話意思を検出する)に加えて、さらに、ユーザ10が対話装置100から所定範囲内(たとえば領域Rの内側)に位置することを検出する。具体的に、第2の検出モードでは、検出部130が、カメラ111の画像(カメラ画像)によって検出されるユーザ10の存在、人感センサ112によって検出されるユーザ10の存在、対話装置以外の装置のユーザ操作によって検出されるユーザの存在、時刻および照度に基づいて推論されるユーザ10の存在、の少なくとも1つを検出することによって、ユーザ10の対話意思を検出し且つユーザ10が対話装置100から所定範囲内に位置することを検出する。   In the second detection mode, in addition to the operation in the first detection mode (detecting the user 10's intention to interact), the detection unit 130 further detects that the user 10 is within a predetermined range (for example, the region R) from the interaction device 100. ) Is detected. Specifically, in the second detection mode, the detection unit 130 detects the presence of the user 10 detected by the image (camera image) of the camera 111, the presence of the user 10 detected by the human sensor 112, and other than the interactive device. By detecting at least one of the presence of the user detected by the user operation of the device, the presence of the user 10 inferred based on the time and the illuminance, the user's 10 intention to interact is detected, and the user 10 It is detected that the position is within a predetermined range from 100.

カメラ画像によって検出されるユーザ10の存在の検出は、カメラ111および画像処理部121などを用いて行われる。人感センサ112によって検出されるユーザ10の存在の検出は、人感センサ112およびセンサデータ処理部122を用いて行われる。対話装置以外の装置のユーザ操作によって検出されるユーザの存在の検出は、たとえば、赤外線センサ113およびセンサデータ処理部122などを用いて行われる。時刻および照度に基づいて推論されるユーザ10の検出は、照度センサ114およびセンサデータ処理部122などを用いて行われる。   The presence of the user 10 detected by the camera image is detected using the camera 111, the image processing unit 121, and the like. The presence of the user 10 detected by the human sensor 112 is detected using the human sensor 112 and the sensor data processing unit 122. Detection of the presence of a user detected by a user operation of a device other than the interactive device is performed using, for example, the infrared sensor 113 and the sensor data processing unit 122. Detection of the user 10 inferred based on the time and the illuminance is performed using the illuminance sensor 114, the sensor data processing unit 122, and the like.

検出部130は、第2の検出モードを実行することによっても、対話開始契機を検出することができる。先に説明したように、対話装置100からユーザ10へ伝達すべき情報が有る場合に、切替部140によって、検出部130は第2の検出モードに切り替えられる。具体的に、積極伝達フラグ(図4)が「true」となっている伝達情報が有る場合に、切替部140は、対話装置100からユーザ10へ伝達すべき情報が有ると判断して、検出部130を第2の検出モードに切り替える。第2の検出モードにおいても、第1の検出モードと同様に、ユーザ主導型対話開始契機が検出される。また、第2の検出モードでは、さらに、ユーザ10が対話装置100から所定範囲内(たとえば領域Rの内側)に位置する場合における対話開始契機(システム主導対話開始契機)が検出される。   The detection unit 130 can also detect a dialog start trigger by executing the second detection mode. As described above, when there is information to be transmitted from the interactive apparatus 100 to the user 10, the switching unit 140 switches the detection unit 130 to the second detection mode. Specifically, when there is transmission information whose active transmission flag (FIG. 4) is “true”, the switching unit 140 determines that there is information to be transmitted from the interactive device 100 to the user 10 and detects it. The unit 130 is switched to the second detection mode. Also in the second detection mode, the user-initiated dialogue start trigger is detected as in the first detection mode. Further, in the second detection mode, a dialog start opportunity (system-initiated dialog start opportunity) when the user 10 is located within a predetermined range (for example, inside the region R) from the dialog device 100 is detected.

第2の検出モードにおいてユーザ主導対話開始契機が検出された場合に実行される処理については、先に説明した第1の検出モードと同様である。   The processing that is executed when a user-initiated dialogue start trigger is detected in the second detection mode is the same as in the first detection mode described above.

第2の検出モードにおいてシステム主導対話開始契機が検出されると、対話装置100からユーザ10に情報を伝達することによって、対話が開始される。具体的に、積極伝達フラグ(図4)が「true」となっている伝達情報が、ユーザ10に伝達される。図4に示す伝達情報データテーブル160aの場合には、積極伝達フラグが「true」となっているシステム発話「明日は雨が降りそうです。傘をお忘れなく!」および「午後は雷雨になります。雷が鳴り始めたら屋外に避難しましょう!」が、対話装置100からユーザ10に伝達される。   When a system-initiated dialogue start trigger is detected in the second detection mode, the dialogue is started by transmitting information from the dialogue device 100 to the user 10. Specifically, the transmission information in which the positive transmission flag (FIG. 4) is “true” is transmitted to the user 10. In the case of the transmission information data table 160a shown in FIG. 4, the system utterances with the positive transmission flag “true” “It seems to rain tomorrow. Don't forget your umbrella!” And “It will be a thunderstorm in the afternoon. “When the thunder starts to sound, let's evacuate outdoors!” Is transmitted from the interactive device 100 to the user 10.

このように対話装置100からユーザ10に情報を伝達することを契機として、ユーザ10と対話装置100との対話を開始することができる。伝達情報がユーザ10に伝達されると、その伝達情報は、保存部160から削除される。伝達情報の削除は、制御部150によって行われてもよいし、伝達情報決定部165によって行われてもよい。   As described above, the communication between the user 10 and the dialog device 100 can be started when information is transmitted from the dialog device 100 to the user 10. When the transmission information is transmitted to the user 10, the transmission information is deleted from the storage unit 160. The deletion of the transmission information may be performed by the control unit 150 or the transmission information determination unit 165.

先に説明したように、対話は、対話制御部151が対話装置100の各要素を適切に制御することによって行われる。ここで、伝達情報決定部165は、対話中においても、保存部160に記憶されている情報を更新することができる。保存部160の更新は連続的に行われてもよいし、所定間隔で行われてもよい。対話中に保存部160が更新されることによって、対話装置100からユーザ10へ伝達すべき情報を補充して、対話を充実させることができる。保存部160の更新によって積極伝達フラグが「true」である伝達情報が発生すると、対話装置100からユーザ10にその情報が伝達される。一方、対話装置100からユーザ10へ伝達すべき情報がない場合には、対話装置100は、ユーザからの発話の待ち受けを行う。   As described above, the dialogue is performed by the dialogue control unit 151 appropriately controlling each element of the dialogue apparatus 100. Here, the transmission information determination unit 165 can update the information stored in the storage unit 160 even during the conversation. The storage unit 160 may be updated continuously or at predetermined intervals. By updating the storage unit 160 during the dialogue, information to be transmitted from the dialogue device 100 to the user 10 can be supplemented to enhance the dialogue. When transmission information whose active transmission flag is “true” is generated by updating the storage unit 160, the information is transmitted from the interactive device 100 to the user 10. On the other hand, when there is no information to be transmitted from the interactive device 100 to the user 10, the interactive device 100 waits for an utterance from the user.

対話装置100からユーザ10に伝達すべき情報が無く、さらに、ユーザ10から対話装置100への発話がないと判断されると、ユーザ10と対話装置100との対話が終了する。その後、対話装置100は、ふたたび対話開始の契機の待ち受けを行う。具体的に、検出部130が第1の検出モードまたは第2の検出モードを実行して、対話を開始するタイミングを検出する。対話の終了に際して、ユーザ10から対話装置100への発話がないことの判断は、たとえばユーザ10の発話が一定時間存在しないか否かに基づいて行うことができる。その際、カメラ画像におけるユーザ10(の顔領域)の有無など、ユーザ10が対話装置100の近くにいるか否かという情報などを考慮してもよい。   When it is determined that there is no information to be transmitted from the interactive device 100 to the user 10 and that there is no utterance from the user 10 to the interactive device 100, the interaction between the user 10 and the interactive device 100 ends. After that, the dialogue apparatus 100 waits for the opportunity to start the dialogue again. Specifically, the detection unit 130 executes the first detection mode or the second detection mode to detect the timing for starting the conversation. At the end of the dialogue, it can be determined that there is no utterance from the user 10 to the dialogue device 100 based on whether the utterance of the user 10 does not exist for a certain period of time, for example. At this time, information such as whether or not the user 10 is near the interactive apparatus 100, such as the presence or absence of the user 10 (the face area) in the camera image, may be considered.

次に、出力制御部152について説明する。出力制御部152は、対話装置100がユーザ10に対して所定の表現を出力するように、対話装置100を制御する。   Next, the output control unit 152 will be described. The output control unit 152 controls the interactive device 100 so that the interactive device 100 outputs a predetermined expression to the user 10.

出力制御部152は、対話装置100からユーザ10へ伝達すべき優先度が所定レベル以上の情報が有り且つユーザ10が対話装置100から所定範囲(たとえば領域R)よりも外側に位置する場合に、ユーザ10を所定範囲内(たとえば図1に示す領域Rの内側)に誘導するための表現を出力するように、対話装置100を制御する。   When there is information whose priority level to be transmitted from the interactive device 100 to the user 10 is a predetermined level or more and the user 10 is located outside the predetermined range (for example, the region R) from the interactive device 100, the output control unit 152 The interactive apparatus 100 is controlled to output an expression for guiding the user 10 within a predetermined range (for example, inside the region R shown in FIG. 1).

この場合、出力制御部152は、積極伝達フラグ(図4)が「true」の伝達情報が1つ以上有る場合に、視覚的にそのことを示すようにキャラクタ11の動作を変更する機能(積極的伝達情報有無通知機能)を有する。たとえば図6(b)に示すような手を振る動作に、キャラクタ11の動作が変更される。この場合、対話装置100からユーザ10に音声によって強制的に情報を伝達することはないが、ユーザ10の視界にキャラクタ11の動作が入ることによって、ユーザ10を対話装置100の近くに誘導することができる。   In this case, the output control unit 152 has a function of changing the action of the character 11 so as to visually indicate that when there is one or more transmission information whose true transmission flag (FIG. 4) is “true” (active Functional communication information presence / absence notification function). For example, the motion of the character 11 is changed to a motion of waving as shown in FIG. In this case, information is not forcibly transmitted from the interactive device 100 to the user 10 by voice, but the user 10 is guided near the interactive device 100 by the action of the character 11 entering the field of view of the user 10. Can do.

また、出力制御部152は、対話装置からユーザへ伝達すべき優先度が所定レベル未満の情報が有る場合には、当該情報の存在をユーザに伝達するための表現を出力するように、対話装置100を制御する。   Further, when there is information whose priority to be transmitted from the interactive device to the user is less than a predetermined level, the output control unit 152 outputs an expression for transmitting the presence of the information to the user. 100 is controlled.

この場合、出力制御部152は、情報伝達フラグが「true」の伝達情報が1つもない一方で、情報伝達フラグが「false」の伝達情報が1つ以上有る場合には、視覚的にそのことを示すようにキャラクタ11の動作を変更する機能(非積極的伝達情報評価提示機能)を有する。たとえば図6(a)に示すようなテレビを見ている動作に、キャラクタ11の動作が変更される。なお、図示しないが、それに対する評価(図4の評価情報)も表示される。この場合、強制的にユーザ10に伝達しなければならないほどユーザ10にとって有益な情報であるか否かは不明であるが、ユーザ10が興味を持つ可能性のある情報の存在を、ユーザに知らせることができる。なお、評価情報を表示する代わりに、音声によって評価情報をユーザ10に伝達してもよい。その場合には、通常の対話時よりも音量を小さくするなど、ユーザ10にとって注意力をあまり要しない方法で評価情報を伝達することが好ましい。   In this case, the output control unit 152 visually indicates that there is no transmission information with the information transmission flag “true” and there is one or more transmission information with the information transmission flag “false”. The function of changing the action of the character 11 so as to indicate (non-positive transmission information evaluation presentation function) is provided. For example, the action of the character 11 is changed to the action of watching TV as shown in FIG. In addition, although not shown in figure, the evaluation (evaluation information of FIG. 4) with respect to it is also displayed. In this case, it is unknown whether the information is useful enough for the user 10 to be forcibly transmitted to the user 10, but the user 10 is informed of the presence of information that the user 10 may be interested in. be able to. Note that the evaluation information may be transmitted to the user 10 by voice instead of displaying the evaluation information. In that case, it is preferable to transmit the evaluation information by a method that does not require much attention to the user 10, such as reducing the volume compared to that during normal dialogue.

なお、その他のキャラクタ11の動作として、図6(c)に示す例では、キャラクタ11は、話をしている動作を示す。この動作は、ユーザ10と対話装置100との対話中に行われる。   As other actions of the character 11, in the example shown in FIG. 6C, the character 11 shows a talking action. This operation is performed during a dialogue between the user 10 and the dialogue apparatus 100.

図7は、対話装置100の状態遷移図である。図7に示すように、対話装置100は、SLEEP状態、WAIT状態およびDIALOGUE状態のいずれかの状態に置かれる。   FIG. 7 is a state transition diagram of the interactive apparatus 100. As shown in FIG. 7, the interactive apparatus 100 is placed in any one of a SLEEP state, a WAIT state, and a DIALOGUE state.

SLEEP状態は、対話装置100の初期状態を示す。このSLEEP状態では、対話開始契機としてユーザ主導対話開始契機のみが検出される。すなわち、SLEEP状態においては、検出部130は、第1の検出モードを実行する。この状態は、ユーザ10がテレビ鑑賞や家族との会話など普段の生活をしていることを想定したものであり、積極的には対話を開始しない。キャラクタ11の動作も、そのことを明示するためテレビを観ているなどの表示(図6(a))にする。この時点で積極伝達フラグ(図4)が「false」の伝達情報が1つ以上あれば、キャラクタ11は評価情報を伝達するための動作を示す。   The SLEEP state indicates an initial state of the interactive apparatus 100. In this SLEEP state, only the user-initiated dialog start trigger is detected as the dialog start trigger. That is, in the SLEEP state, the detection unit 130 executes the first detection mode. This state assumes that the user 10 has a normal life such as watching TV or talking with his / her family, and does not actively start a conversation. The action of the character 11 is also displayed (FIG. 6 (a)) such as watching a television to clearly show this. At this time, if there is at least one piece of transmission information whose active transmission flag (FIG. 4) is “false”, the character 11 shows an action for transmitting the evaluation information.

SLEEP状態において、ユーザ10の対話意思が検出されると、対話が開始されて、対話装置100はDIALOG状態に移行する(AR1)。一方、SLEEP状態において、伝達情報決定部165が保存部160を(たとえば定期的に)更新することによって、積極伝達フラグ(図4)が「true」の伝達情報が1つ以上生成されると、対話装置100は、WAIT状態に移行する(AR2)。   When the user 10's intention to interact is detected in the SLEEP state, the conversation is started and the interactive apparatus 100 shifts to the DIALOG state (AR1). On the other hand, in the SLEEP state, when the transmission information determination unit 165 updates the storage unit 160 (for example, periodically), and generates one or more transmission information with the “true” transmission flag (FIG. 4), The dialogue apparatus 100 shifts to the WAIT state (AR2).

WAIT状態においては、SLEEP状態と同様にユーザ主導対話開始契機が検出され、さらに、システム主導対話開始契機も検出される。すなわち、WAIT状態においては、検出部130は、第2の検出モードを実行する。キャラクタ11は、ユーザ10に伝達すべき内容が有ることを視覚的に表現するよう手を振るなどの動作(図6(b))を示す。また、ユーザ10が対話装置100の近くに存在していることが検出されると、対話が開始され、対話装置100はDIALOG状態に移行する(AR3)。   In the WAIT state, the user-initiated dialog start opportunity is detected as in the SLEEP state, and further, the system-initiated dialog start opportunity is also detected. That is, in the WAIT state, the detection unit 130 executes the second detection mode. The character 11 shows an action (FIG. 6B) such as waving his hand so as to visually express that there is content to be transmitted to the user 10. When it is detected that the user 10 is present near the interactive device 100, the interactive operation is started, and the interactive device 100 shifts to the DIALOG state (AR3).

DIALOGUE状態においては、ユーザ10と対話装置100との対話が進行中である。対話中、積極伝達フラグ(図4)が「true」の伝達情報があれば、その内容が音声として対話装置100からユーザ10へ伝達される。また、対話装置100は、ユーザ10の発話を音声認識し、応答する(図5の応答情報を用いて返答する)。キャラクタ11は、対話をしている動作を示す(図6(c))。対話が終了すると、対話装置100はWAIT状態に移行する(AR4)。   In the DIALOGUE state, a dialogue between the user 10 and the dialogue device 100 is in progress. During the conversation, if there is transmission information whose active transmission flag (FIG. 4) is “true”, the content is transmitted as speech from the interactive apparatus 100 to the user 10. Further, the dialogue apparatus 100 recognizes the speech of the user 10 and responds (reply using the response information in FIG. 5). The character 11 shows an interactive action (FIG. 6C). When the dialogue ends, the dialogue device 100 shifts to the WAIT state (AR4).

対話が終了してWAIT状態となったときには、ほとんどの場合、積極伝達フラグ(図4)が「true」であった伝達情報が先の対話によってユーザ10に伝達された後に削除されているので、積極伝達フラグが「true」の伝達情報が存在せず、対話装置100はSLEEP状態に移行する(AR5)。   When the dialogue is ended and the WAIT state is reached, in most cases, the transmission information whose active transmission flag (FIG. 4) is “true” is deleted after being transmitted to the user 10 by the previous dialogue. There is no transmission information whose active transmission flag is “true”, and the interactive apparatus 100 shifts to the SLEEP state (AR5).

図8は、対話装置100(図2)の状態遷移を説明するためのフローチャートである。このフローチャートの処理は、とくに記載がない場合は、対話装置100の制御部150によって実行され得る。   FIG. 8 is a flowchart for explaining the state transition of the interactive apparatus 100 (FIG. 2). The processing of this flowchart can be executed by the control unit 150 of the interactive apparatus 100 unless otherwise specified.

はじめに、対話装置100は、現在の状態を判断する(ステップS1)。SLEEP状態の場合、ステップS2に処理が進められる。WAIT状態の場合、ステップS6に処理が進められる。DIALOGUE状態の場合、ステップS10に処理が進められる。   First, the dialogue apparatus 100 determines the current state (step S1). In the case of the SLEEP state, the process proceeds to step S2. In the WAIT state, the process proceeds to step S6. In the case of the DIALOGUE state, the process proceeds to step S10.

SLEEP状態の場合、対話装置100の検出部130は、ユーザ10に対話意思が有るか否か判断する(ステップS2)。ユーザに対話意思が有る場合(ステップS2:YES)、対話装置100は、ステップS4に処理を進める。そうでない場合(ステップS2:NO)、対話装置100は、ステップS3に処理を進める。   In the case of the SLEEP state, the detection unit 130 of the interaction device 100 determines whether or not the user 10 has an intention to interact (step S2). When the user has an intention to interact (step S2: YES), the interaction apparatus 100 proceeds with the process to step S4. When that is not right (step S2: NO), the dialogue apparatus 100 advances a process to step S3.

ステップS2においてユーザに対話意思が無い場合(ステップS2:NO)、対話装置100は、ユーザ10に伝達すべき情報が有るか否か判断する(ステップS3)。この判断は、たとえば切替部140によって行われる。ユーザ10に伝達すべき情報が有る場合(ステップS3:YES)、対話装置100は、ステップS5に処理を進める。そうでない場合(ステップS3:NO)、対話装置100は、ステップS1に再び処理を戻す。   If the user has no intention to interact in step S2 (step S2: NO), the interaction apparatus 100 determines whether there is information to be transmitted to the user 10 (step S3). This determination is performed by the switching unit 140, for example. If there is information to be transmitted to the user 10 (step S3: YES), the dialogue apparatus 100 proceeds with the process to step S5. When that is not right (step S3: NO), the dialogue apparatus 100 returns a process to step S1 again.

ステップS2においてユーザに対話意思が有る場合(ステップS2:YES)、対話装置100は、DIALOGUE状態へ移行する(ステップS4)。その後、対話装置100は、ステップS1に再び処理を戻す。   If the user has an intention to interact in step S2 (step S2: YES), the interaction apparatus 100 transitions to the DIALOGUE state (step S4). Thereafter, the interactive apparatus 100 returns the process to step S1 again.

WAIT状態の場合、対話装置100の検出部130は、ユーザに対話意思が有るか否か判断する(ステップS6)。ユーザに対話意思が有る場合(ステップS6:YES)、対話装置100は、ステップS4に処理を進める。そうでない場合(ステップS6:NO)、対話装置100は、ステップS7に処理を進める。   In the WAIT state, the detection unit 130 of the interaction device 100 determines whether or not the user has an intention to interact (step S6). If the user has an intention to interact (step S6: YES), the interaction apparatus 100 proceeds with the process to step S4. When that is not right (step S6: NO), the dialogue apparatus 100 advances a process to step S7.

ステップS6においてユーザ10に対話意思が無い場合(ステップS6:NO)、対話装置100の検出部130は、ユーザ10が近くにいるか否か判断する(ステップS7)。ユーザ10が近くにいる場合(ステップS7:YES)、対話装置100は、ステップS4に処理を進める。そうでない場合(ステップS7:NO)、対話装置100は、ステップS7に処理を進める。   When the user 10 has no intention to interact in step S6 (step S6: NO), the detection unit 130 of the interaction apparatus 100 determines whether or not the user 10 is nearby (step S7). When the user 10 is nearby (step S7: YES), the dialogue apparatus 100 proceeds with the process to step S4. When that is not right (step S7: NO), the dialogue apparatus 100 advances a process to step S7.

ステップS7においてユーザ10が近くにいない場合(ステップS7:NO)、対話装置100は、ユーザ10へ伝達すべき情報が無いか否か判断する(ステップS8)。この判断は、たとえば切替部140によって行われる。ユーザ10へ伝達すべき情報が無い場合(ステップS8:YES)、対話装置100は、ステップS9へ処理を進める。そうでない場合(ステップS8:NO)、対話装置100は、ステップS1に再び処理を戻す。   When the user 10 is not nearby in step S7 (step S7: NO), the dialogue apparatus 100 determines whether there is any information to be transmitted to the user 10 (step S8). This determination is performed by the switching unit 140, for example. If there is no information to be transmitted to the user 10 (step S8: YES), the dialogue apparatus 100 advances the process to step S9. When that is not right (step S8: NO), the dialogue apparatus 100 returns a process to step S1 again.

ステップS8においてユーザ10へ伝達すべき情報が無い場合(ステップS8:YES)、対話装置100は、SLEEP状態へ移行する(ステップS9)。その後、対話装置100は、ステップS1に再び処理を戻す。   If there is no information to be transmitted to the user 10 in step S8 (step S8: YES), the dialogue apparatus 100 shifts to the SLEEP state (step S9). Thereafter, the interactive apparatus 100 returns the process to step S1 again.

DIALOGUE状態の場合、対話装置100は、ユーザ10との対話が終了したか否か判断する(ステップS10)。この判断は、たとえば対話制御部151によって行われる。対話が終了した場合(ステップS10:YES)、対話装置100は、ステップS5に処理を進める。そうでない場合(ステップS10:NO)、対話装置100は、ステップS1に再び処理を戻す。   In the case of the DIALOGUE state, the dialogue apparatus 100 determines whether or not the dialogue with the user 10 has ended (step S10). This determination is made by, for example, the dialogue control unit 151. When the dialogue is finished (step S10: YES), the dialogue device 100 advances the process to step S5. When that is not right (step S10: NO), the dialogue apparatus 100 returns a process to step S1 again.

なお、図8には図示しないが、保存部160の情報は、適時更新されるものとする。保存部160が更新されることによって、ユーザ伝達すべき情報が有るか否か(ステップS3,S8)における判断結果が異なるものと成り得る。   Although not shown in FIG. 8, it is assumed that the information in the storage unit 160 is updated in a timely manner. By updating the storage unit 160, the determination result in whether or not there is information to be transmitted to the user (steps S3 and S8) can be different.

図8に示すフローチャートによれば、対話装置100が、ハンズフリー状態にあるユーザ10との対話を開始するタイミングを検出するための複数の検出モード(第1の検出モードおよび第2の検出モード)のうちいずれかの検出モードを用いて、対話を開始するタイミングを検出するステップ(ステップS2,S3,S6,S7)と、対話装置100が、対話装置100からユーザ10へ伝達すべき情報の有無に応じて、検出するステップにおいて用いる検出モードを切り替えるステップ(S5,S9)と、が実行される。   According to the flowchart shown in FIG. 8, a plurality of detection modes (a first detection mode and a second detection mode) for detecting the timing when the interactive device 100 starts a conversation with the user 10 in the hands-free state. The step (step S2, S3, S6, S7) which detects the timing which starts a dialog using any detection mode among these, and the presence or absence of the information which the dialog apparatus 100 should transmit to the user 10 from the dialog apparatus 100 In response to this, steps (S5, S9) of switching the detection mode used in the detecting step are executed.

次に、対話装置100の作用効果について説明する。対話装置100は、ハンズフリー状態にあるユーザ10との対話を開始するタイミングを検出するための複数の検出モードを実行可能に構成された検出部130と、対話装置100からユーザへ伝達すべき情報の有無に応じて、検出部130の検出モードを切り替える切替部140と、を備える。これにより、対話装置100からユーザ10へ伝達すべき情報の有無に応じて切り替えられた検出モードを用いて、ユーザ10との対話を開始するタイミングを検出する。対話を開始すべきか否かなどの基準を柔軟に変更することによって、適切なタイミングで対話を開始することができる。   Next, the function and effect of the interactive device 100 will be described. The dialogue apparatus 100 includes a detection unit 130 configured to be able to execute a plurality of detection modes for detecting timing for starting a dialogue with the user 10 in a hands-free state, and information to be transmitted from the dialogue apparatus 100 to the user. And a switching unit 140 that switches the detection mode of the detection unit 130 according to the presence or absence of. Thereby, the timing which starts the dialog with the user 10 is detected using the detection mode switched according to the presence or absence of information to be transmitted from the dialog device 100 to the user 10. By flexibly changing the criteria such as whether or not to start the dialogue, the dialogue can be started at an appropriate timing.

複数の検出モードは、ユーザ10の対話意思を検出する第1の検出モードと、ユーザ10の対話意思を検出し且つユーザ10が対話装置100から所定範囲内(領域Rの内側)に位置することを検出する第2の検出モードとを含んでおり、切替部140は、対話装置100からユーザ10へ伝達すべき情報が無い場合には、検出部130を第1の検出モードに切り替え、対話装置100からユーザ10へ伝達すべき情報が有る場合には、検出部130を第2の検出モードに切り替える。これにより、ユーザ10へ伝達すべき情報が無い場合には、第1の検出モードを用いて、ユーザ10に対話意思が有るときにのみ、対話を開始することができる。したがって、たとえばユーザ10と他人との会話に反応して対話を開始してしまうことを防ぐことができる。また、ユーザ10へ伝達すべき情報が有るときには、第2の検出モードを用いてユーザ10が所定範囲内に位置している(近くにいる)ときにユーザ10との対話を開始して、情報を確実にユーザへ伝達することができる。よって、適切なタイミングでユーザ10との対話を開始することができる。   The plurality of detection modes include a first detection mode for detecting the user 10's intention to interact, and detecting the user 10's intention to interact and the user 10 being located within a predetermined range (inside the region R) from the interaction device 100. The switching unit 140 switches the detection unit 130 to the first detection mode when there is no information to be transmitted from the interactive device 100 to the user 10, and the interactive device When there is information to be transmitted from 100 to the user 10, the detection unit 130 is switched to the second detection mode. Thus, when there is no information to be transmitted to the user 10, the first detection mode can be used to start the conversation only when the user 10 has an intention to interact. Therefore, for example, it is possible to prevent a conversation from being started in response to a conversation between the user 10 and another person. When there is information to be transmitted to the user 10, the second detection mode is used to start a dialog with the user 10 when the user 10 is located (close) within the predetermined range. Can be reliably transmitted to the user. Therefore, the dialogue with the user 10 can be started at an appropriate timing.

また、第1の検出モードでは、検出部130が、ユーザの音声中の所定のキーワード、ユーザの所定の動作、ユーザの対話装置への接触、の少なくとも1つを検出することによって、ユーザの対話意思を検出する。これにより、たとえば、ユーザの音声発話による対話装置への呼びかけ、ユーザの動作(ジェスチャー)、またはユーザの対話装置への接触行為などを契機として、対話を開始することができる。たとえば、キーワード型音声入力検出機能(キーワードの検出)を備えることでユーザ10から対話装置100への音声発話による呼びかけに答えることが可能となる。ジェスチャ入力機能(動作の検出)を備えることで発話をせずに手招きなどの手振りで対話装置100に対話開始の契機を与えることができる。物理インタラクションセンシング機能(接触の検出)を備えることで、物理的なインタラクションによる対話開始を行うことができる。   Further, in the first detection mode, the detection unit 130 detects at least one of a predetermined keyword in the user's voice, a predetermined operation of the user, and a contact with the user's interactive device, whereby the user's interaction is detected. Detect intention. Thereby, for example, a dialogue can be started with a call to a dialogue device by a user's voice utterance, a user's action (gesture), or a user's contact action on the dialogue device. For example, by providing a keyword type voice input detection function (keyword detection), it is possible to answer a call from the user 10 to the dialog device 100 by voice utterance. By providing the gesture input function (detection of motion), it is possible to give the dialog device 100 an opportunity to start a dialog by a gesture such as beckoning without speaking. By providing a physical interaction sensing function (contact detection), it is possible to start a dialogue by physical interaction.

また、第2の検出モードでは、検出部130が、カメラ画像によって検出されるユーザ10の存在、人感センサ112によって検出されるユーザ10の存在、対話装置100以外の装置のユーザ操作によって検出されるユーザ10の存在、時刻および照度に基づいて推論されるユーザ10の存在、の少なくとも1つを検出することによって、ユーザ10の対話意思を検出し且つユーザが対話装置100から所定範囲内に位置することを検出する。これにより、ユーザ10の存在を明確に検出して、より適切なタイミングでユーザ10との対話を開始することができる。たとえば、画像処理機能(カメラ画像による検出)により明確に対話装置100の前方にユーザ10が存在することを契機とした話しかけが可能となる。人感センサ112による検出により、夜間などの画像処理による検出ができない場合にも話しかけが可能となる。周辺機器操作を検出することにより対話装置100と正対しない場合にもユーザ10への話しかけが可能となる。また、推論型検出手段を備えることによって、特殊な画像処理やセンサを要さずにユーザ10の存在を検出して話しかけを行ったり、複合的にセンサの検出結果を用いることで話しかけタイミングの精度を向上させることが可能となる。   In the second detection mode, the detection unit 130 is detected by the presence of the user 10 detected by the camera image, the presence of the user 10 detected by the human sensor 112, or a user operation of a device other than the interactive device 100. By detecting at least one of the presence of the user 10 and the presence of the user 10 inferred based on the time and the illuminance, the user's intention to interact is detected and the user is located within a predetermined range from the interaction device 100. Detect what to do. Thereby, the presence of the user 10 can be clearly detected, and the dialogue with the user 10 can be started at a more appropriate timing. For example, an image processing function (detection by a camera image) makes it possible to talk with the user 10 clearly in front of the interactive device 100 as an opportunity. By the detection by the human sensor 112, it is possible to talk even when it cannot be detected by image processing such as at night. By detecting the peripheral device operation, it is possible to talk to the user 10 even when the dialogue apparatus 100 is not directly facing. In addition, by providing an inference type detection means, the presence of the user 10 can be detected without using special image processing or sensors, and the accuracy of the speaking timing can be determined by using the detection results of the sensors in combination. Can be improved.

また、対話装置100は、対話装置100からユーザ10へ伝達すべき優先度が所定レベル以上の情報が有り且つユーザ10が対話装置100から所定範囲よりも外側に位置する場合に、ユーザ10を所定範囲内に誘導するための表現を出力する出力制御部152、をさらに備える。これにより、ユーザ10を対話装置100の近くに誘導して、早期に対話を開始することができる。したがって、ユーザ10へ伝達すべき優先度の高い情報を、早期にユーザ10に伝達することができる。すなわち、出力制御部152のキャラクタ動作制御機能が、ユーザ10へ伝達すべき情報が存在する場合に、視覚的にそれをアピールすることで対話装置100への接近を促し、自然にユーザ10との対話を開始することが可能となる。   Further, the dialogue apparatus 100 determines the user 10 when the priority level to be transmitted from the dialogue apparatus 100 to the user 10 is higher than a predetermined level and the user 10 is located outside the predetermined range from the dialogue apparatus 100. It further includes an output control unit 152 that outputs an expression for guiding within the range. Thereby, the user 10 can be guided to the vicinity of the dialogue apparatus 100 and the dialogue can be started early. Therefore, high priority information to be transmitted to the user 10 can be transmitted to the user 10 at an early stage. That is, when there is information to be transmitted to the user 10, the character motion control function of the output control unit 152 visually appeals the information to prompt the user to approach the interactive device 100, and naturally It is possible to start a dialogue.

出力制御部152は、対話装置100からユーザ10へ伝達すべき優先度が所定レベル未満の情報が有る場合には、当該情報の存在をユーザ10に伝達するための表現を出力する。これにより、ユーザ10に、情報の存在を知らせて、ユーザ10の興味を喚起することができる。したがって、ユーザ10が対話意思を有するようになる可能性が高まる。すなわち、ユーザ10にとって有益である可能性のある情報が存在する場合に、対話装置100自身の反応を提示し、間接的にその存在をユーザ10へ提示することによって、ユーザ10の興味を喚起し対話へ誘導することが可能となる。   When there is information whose priority to be transmitted from the interactive apparatus 100 to the user 10 is less than a predetermined level, the output control unit 152 outputs an expression for transmitting the presence of the information to the user 10. Thereby, the presence of information can be notified to the user 10, and the user's 10 interest can be aroused. Therefore, the possibility that the user 10 has an intention to interact increases. That is, when there is information that may be beneficial to the user 10, the interaction of the dialogue apparatus 100 itself is presented, and the presence of the information is indirectly presented to the user 10, thereby arousing the interest of the user 10. It is possible to guide to dialogue.

1…対話システム、10…ユーザ、11…キャラクタ、50…通信ネットワーク、100…対話装置、110…インタフェース部、111…カメラ、112…人感センサ、113…赤外線センサ、114…照度センサ(推論センサ)、115…ディスプレイ、116…マイク、117…スピーカ、118…操作パネル、120…データ処理部、121…画像処理部、122…センサデータ処理部、123…出力処理部、124…音声認識部、…音声合成部125、入力処理部126、130…検出部、140…切替部、150…制御部、151…対話制御部、152…出力制御部、160…保存部、165…伝達情報決定部165、170…通信部、200…サーバ、R…領域。   DESCRIPTION OF SYMBOLS 1 ... Dialog system, 10 ... User, 11 ... Character, 50 ... Communication network, 100 ... Dialog device, 110 ... Interface part, 111 ... Camera, 112 ... Human sensor, 113 ... Infrared sensor, 114 ... Illuminance sensor (inference sensor) , 115 ... Display, 116 ... Microphone, 117 ... Speaker, 118 ... Operation panel, 120 ... Data processing unit, 121 ... Image processing unit, 122 ... Sensor data processing unit, 123 ... Output processing unit, 124 ... Voice recognition unit, ... voice synthesis unit 125, input processing units 126, 130 ... detection unit, 140 ... switching unit, 150 ... control unit, 151 ... dialogue control unit, 152 ... output control unit, 160 ... storage unit, 165 ... transmission information determination unit 165 , 170 ... communication section, 200 ... server, R ... area.

Claims (7)

ユーザとの対話を行うための対話装置であって、
ハンズフリー状態にある前記ユーザとの対話を開始するタイミングを検出するための複数の検出モードを実行可能に構成された検出部と、
前記対話装置から前記ユーザへ伝達すべき情報の有無に応じて、前記検出部の検出モードを切り替える切替部と、
を備える、対話装置。
An interactive device for interacting with a user,
A detection unit configured to be able to execute a plurality of detection modes for detecting timing for starting a conversation with the user in a hands-free state;
A switching unit that switches a detection mode of the detection unit according to the presence or absence of information to be transmitted from the interactive device to the user;
An interactive apparatus comprising:
前記検出部の前記複数の検出モードは、
前記ユーザの対話意思を検出する第1の検出モードと、
前記ユーザの対話意思を検出し且つ前記ユーザが前記対話装置から所定範囲内に位置することを検出する第2の検出モードとを含み、
前記切替部は、前記対話装置から前記ユーザへ伝達すべき情報が無い場合には、前記検出部を前記第1の検出モードに切り替え、前記対話装置から前記ユーザへ伝達すべき情報が有る場合には、前記検出部を前記第2の検出モードに切り替える、請求項1に記載の対話装置。
The plurality of detection modes of the detection unit are:
A first detection mode for detecting the user's intention to interact;
A second detection mode for detecting the user's intention to interact and detecting that the user is within a predetermined range from the interaction device;
The switching unit switches the detection unit to the first detection mode when there is no information to be transmitted from the interactive device to the user, and when there is information to be transmitted from the interactive device to the user. The interactive device according to claim 1, wherein the detection unit is switched to the second detection mode.
前記第1の検出モードでは、前記検出部が、前記ユーザの音声中の所定のキーワード、前記ユーザの所定の動作、前記ユーザの前記対話装置への接触、の少なくとも1つを検出することによって、前記ユーザの対話意思を検出する、請求項2に記載の対話装置。   In the first detection mode, the detection unit detects at least one of a predetermined keyword in the user's voice, a predetermined operation of the user, and contact of the user with the interactive device. The dialogue apparatus according to claim 2, wherein the dialogue intention of the user is detected. 前記第2の検出モードでは、前記検出部が、カメラ画像によって検出される前記ユーザの存在、人感センサによって検出される前記ユーザの存在、前記対話装置以外の装置のユーザ操作によって検出される前記ユーザの存在、時刻および照度に基づいて推論される前記ユーザの存在、の少なくとも1つを検出することによって、前記ユーザの対話意思を検出し且つ前記ユーザが前記対話装置から所定範囲内に位置することを検出する、請求項2または3に記載の対話装置。   In the second detection mode, the detection unit detects the presence of the user detected by a camera image, the presence of the user detected by a human sensor, and a user operation of a device other than the interactive device. By detecting at least one of the presence of the user, the presence of the user inferred based on time and illuminance, the user's intention to interact is detected and the user is located within a predetermined range from the interaction device The interaction device according to claim 2, wherein the interactive device is detected. 前記対話装置から前記ユーザへ伝達すべき優先度が所定レベル以上の情報が有り且つ前記ユーザが前記対話装置から所定範囲よりも外側に位置する場合に、前記ユーザを前記所定範囲内に誘導するための表現を出力する出力制御部、
をさらに備える、請求項2〜4のいずれか1項に記載の対話装置。
In order to guide the user into the predetermined range when there is information whose priority level to be transmitted from the interactive device to the user is equal to or higher than a predetermined level and the user is located outside the predetermined range from the interactive device An output control unit that outputs an expression of
The interactive apparatus according to any one of claims 2 to 4, further comprising:
前記対話装置から前記ユーザへ伝達すべき優先度が所定レベル未満の情報が有る場合には、当該情報の存在を前記ユーザに伝達するための表現を出力する出力制御部、
をさらに備える、請求項2〜4のいずれか1項に記載の対話装置。
An output control unit that outputs an expression for transmitting the presence of the information to the user when there is information whose priority level to be transmitted from the interactive device to the user is less than a predetermined level;
The interactive apparatus according to any one of claims 2 to 4, further comprising:
ユーザと対話装置との間で対話を行うための対話方法であって、
前記対話装置が、ハンズフリー状態にある前記ユーザとの対話を開始するタイミングを検出するための複数の検出モードのうちいずれかの検出モードを用いて、前記対話を開始するタイミングを検出するステップと、
前記対話装置が、前記対話装置から前記ユーザへ伝達すべき情報の有無に応じて、前記検出するステップにおいて用いる検出モードを切り替えるステップと、
を含む、対話方法。
A dialogue method for carrying out a dialogue between a user and a dialogue device,
Detecting the timing for starting the dialogue by using any one of a plurality of detection modes for detecting the timing when the dialogue device starts a dialogue with the user in a hands-free state; ,
Switching the detection mode used in the detecting step according to whether the interactive device has information to be transmitted from the interactive device to the user;
Including interactive methods.
JP2014201176A 2014-09-30 2014-09-30 Dialogue device and dialogue method Active JP6359935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014201176A JP6359935B2 (en) 2014-09-30 2014-09-30 Dialogue device and dialogue method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014201176A JP6359935B2 (en) 2014-09-30 2014-09-30 Dialogue device and dialogue method

Publications (2)

Publication Number Publication Date
JP2016071192A true JP2016071192A (en) 2016-05-09
JP6359935B2 JP6359935B2 (en) 2018-07-18

Family

ID=55866772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014201176A Active JP6359935B2 (en) 2014-09-30 2014-09-30 Dialogue device and dialogue method

Country Status (1)

Country Link
JP (1) JP6359935B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018056169A1 (en) * 2016-09-21 2018-03-29 日本電気株式会社 Interactive device, processing method, and program
JP2018087847A (en) * 2016-11-28 2018-06-07 日本電信電話株式会社 Dialogue control device, its method and program
CN110910887A (en) * 2019-12-30 2020-03-24 苏州思必驰信息科技有限公司 Voice wake-up method and device
US11887594B2 (en) 2017-03-22 2024-01-30 Google Llc Proactive incorporation of unsolicited content into human-to-computer dialogs
US11929069B2 (en) 2017-05-03 2024-03-12 Google Llc Proactive incorporation of unsolicited content into human-to-computer dialogs

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0588691A (en) * 1991-09-30 1993-04-09 Toshiba Corp Speech interaction device
JPH0798640A (en) * 1993-05-24 1995-04-11 Firstperson Inc Method for execution of interface to remote device and improved graphic user interface using apparatus
JP2002328693A (en) * 2001-05-03 2002-11-15 Sony Corp Robot system, robot apparatus and its control method
JP2004177990A (en) * 2002-11-22 2004-06-24 Ntt Docomo Inc Information presentation system, information presentation method, program, and storage medium
JP2008234443A (en) * 2007-03-22 2008-10-02 Matsushita Electric Ind Co Ltd Information processor
JP2010206714A (en) * 2009-03-05 2010-09-16 Panasonic Electric Works Co Ltd Equipment control system
WO2013038293A1 (en) * 2011-09-15 2013-03-21 Koninklijke Philips Electronics N.V. Gesture-based user-interface with user-feedback
JP2013080015A (en) * 2011-09-30 2013-05-02 Toshiba Corp Speech recognition device and speech recognition method
JP2013254330A (en) * 2012-06-06 2013-12-19 Toyota Motor Corp Information display device for vehicle

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0588691A (en) * 1991-09-30 1993-04-09 Toshiba Corp Speech interaction device
JPH0798640A (en) * 1993-05-24 1995-04-11 Firstperson Inc Method for execution of interface to remote device and improved graphic user interface using apparatus
JP2002328693A (en) * 2001-05-03 2002-11-15 Sony Corp Robot system, robot apparatus and its control method
JP2004177990A (en) * 2002-11-22 2004-06-24 Ntt Docomo Inc Information presentation system, information presentation method, program, and storage medium
JP2008234443A (en) * 2007-03-22 2008-10-02 Matsushita Electric Ind Co Ltd Information processor
JP2010206714A (en) * 2009-03-05 2010-09-16 Panasonic Electric Works Co Ltd Equipment control system
WO2013038293A1 (en) * 2011-09-15 2013-03-21 Koninklijke Philips Electronics N.V. Gesture-based user-interface with user-feedback
JP2013080015A (en) * 2011-09-30 2013-05-02 Toshiba Corp Speech recognition device and speech recognition method
JP2013254330A (en) * 2012-06-06 2013-12-19 Toyota Motor Corp Information display device for vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018056169A1 (en) * 2016-09-21 2018-03-29 日本電気株式会社 Interactive device, processing method, and program
JP2018087847A (en) * 2016-11-28 2018-06-07 日本電信電話株式会社 Dialogue control device, its method and program
US11887594B2 (en) 2017-03-22 2024-01-30 Google Llc Proactive incorporation of unsolicited content into human-to-computer dialogs
US11929069B2 (en) 2017-05-03 2024-03-12 Google Llc Proactive incorporation of unsolicited content into human-to-computer dialogs
CN110910887A (en) * 2019-12-30 2020-03-24 苏州思必驰信息科技有限公司 Voice wake-up method and device
CN110910887B (en) * 2019-12-30 2022-06-28 思必驰科技股份有限公司 Voice wake-up method and device

Also Published As

Publication number Publication date
JP6359935B2 (en) 2018-07-18

Similar Documents

Publication Publication Date Title
US11810562B2 (en) Reducing the need for manual start/end-pointing and trigger phrases
US11102624B2 (en) Automated messaging
US10176810B2 (en) Using voice information to influence importance of search result categories
JP6640430B1 (en) Identify virtual assistants for nearby computing devices
CN110199350B (en) Method for sensing end of speech and electronic device implementing the method
US11955124B2 (en) Electronic device for processing user speech and operating method therefor
TWI603258B (en) Dynamic thresholds for always listening speech trigger
US11217230B2 (en) Information processing device and information processing method for determining presence or absence of a response to speech of a user on a basis of a learning result corresponding to a use situation of the user
JP6359935B2 (en) Dialogue device and dialogue method
CN111492328A (en) Non-verbal engagement of virtual assistants
KR20160071732A (en) Method and apparatus for processing voice input
US11237794B2 (en) Information processing device and information processing method
US20230074406A1 (en) Using large language model(s) in generating automated assistant response(s
CN112292724A (en) Dynamic and/or context-specific hotwords for invoking automated assistants
WO2023038654A1 (en) Using large language model(s) in generating automated assistant response(s)
JP2016076007A (en) Interactive apparatus and interactive method
JP6973380B2 (en) Information processing device and information processing method
WO2016206646A1 (en) Method and system for urging machine device to generate action
CN112219235A (en) System comprising an electronic device for processing a user's speech and a method for controlling speech recognition on an electronic device
JP2017531889A (en) Character string storage method and apparatus
CN117136405A (en) Automated assistant response generation using large language models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6359935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250