JP7429194B2 - Dialogue device and dialogue program - Google Patents
Dialogue device and dialogue program Download PDFInfo
- Publication number
- JP7429194B2 JP7429194B2 JP2020558161A JP2020558161A JP7429194B2 JP 7429194 B2 JP7429194 B2 JP 7429194B2 JP 2020558161 A JP2020558161 A JP 2020558161A JP 2020558161 A JP2020558161 A JP 2020558161A JP 7429194 B2 JP7429194 B2 JP 7429194B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- instruction
- phrase
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 claims description 60
- 239000000284 extract Substances 0.000 claims description 38
- 230000003993 interaction Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 20
- 238000000034 method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 239000002245 particle Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M11/00—Telephonic communication systems specially adapted for combination with other electrical systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Description
本発明は、対話装置及び対話プログラムに関する。 The present invention relates to a dialogue device and a dialogue program.
家電機器を含むいわゆるIoT(Internet of Things)デバイス等のデバイスを、発話により操作及び制御する技術が知られている。このような技術では、ユーザによる発話の音声認識及び形態素解析等により指示の内容が判断され、制御情報が出力される。特許文献1には、家電機器を管理するサーバが、各家電機器に対応する操作画面を端末装置に提供する技術が記載されている。
2. Description of the Related Art Techniques are known for operating and controlling devices such as so-called IoT (Internet of Things) devices including home appliances through speech. In such technology, the content of the instruction is determined by voice recognition and morphological analysis of the user's utterance, and control information is output.
ユーザの発話によりデバイスの制御を実施するシステムにおいて、制御対象の機器に関する情報及び発話内容に関する選択肢等が示されない状況では、ユーザがどのような発話をすべきかを認識するのは困難である。デバイスを制御するための発話内容として予め記憶されたシナリオに基づいて、ユーザに発話内容を案内する技術が存在するが、そのような技術であっても、予め記憶されたシナリオに基づいて案内するので、制御対象のデバイスの変更及びユーザの状況の変化等に応じて柔軟且つ動的に発話内容を提示することはできない。 In a system in which a device is controlled by a user's utterance, it is difficult for the user to recognize what kind of utterance the user should make in a situation where information regarding the device to be controlled and options regarding the content of the utterance are not presented. There is a technology that guides the user to the content of the utterance based on a scenario that is pre-stored as the utterance content for controlling the device, but even with such technology, the guidance is based on the pre-stored scenario. Therefore, it is not possible to flexibly and dynamically present the utterance content in response to changes in the device to be controlled, changes in the user's situation, and the like.
特許文献1に記載された技術では、家電機器を操作するための操作画面が示されるにすぎず、ユーザの発話を支援するものではない。また、この操作画面は、予め記憶されたものであるので、状況に応じて表示内容を動的に変更させることはできない。
The technique described in
そこで、本発明は、上記問題点に鑑みてなされたものであり、ユーザの発話によりデバイスを制御する技術において、制御対象のデバイスの状態及びユーザに応じて、好適な発話内容を案内することにより、利便性の向上を図ることを目的とする。 The present invention has been made in view of the above-mentioned problems, and is a technology for controlling a device by user's utterances, by guiding suitable utterance contents according to the state of the device to be controlled and the user. The purpose is to improve convenience.
上記課題を解決するために、本発明の一形態に係る対話装置は、デバイスを制御する制御情報を生成するための、音声またはテキストからなるユーザ発話を受け付ける対話装置であって、デバイスの動作状態を示すデバイス状態情報を取得するデバイス状態取得部と、デバイスの制御指示を表し少なくとも一以上の語句または文を含む指示フレーズと、当該デバイスの動作状態と、を関連付けている語彙情報を参照して、デバイス状態情報に示されるデバイスの動作状態に関連付けられている一以上の指示フレーズを抽出するフレーズ抽出部と、フレーズ抽出部により抽出された指示フレーズに基づいて、デバイスを制御するための発話文を生成する生成部と、生成部により生成された発話文をユーザに対して提示する提示部と、を備える。 In order to solve the above problems, an interaction device according to one embodiment of the present invention is an interaction device that receives user utterances consisting of voice or text to generate control information for controlling a device, and includes an operating state of the device. a device status acquisition unit that acquires device status information indicating a device status, an instruction phrase representing a device control instruction including at least one word or sentence, and an operating status of the device with reference to vocabulary information; , a phrase extraction unit that extracts one or more instruction phrases associated with the operating state of the device indicated in the device status information, and an utterance for controlling the device based on the instruction phrases extracted by the phrase extraction unit. and a presentation unit that presents the utterance generated by the generation unit to the user.
上記課題を解決するために、本発明の一形態に係る対話プログラムは、コンピュータを、デバイスを制御する制御情報を生成するための、音声またはテキストからなるユーザ発話を受け付ける対話装置として機能させるための対話プログラムであって、デバイスの動作状態を示すデバイス状態情報を取得するデバイス状態取得機能と、デバイスの制御指示を表し少なくとも一以上の語句または文を含む指示フレーズと、当該デバイスの動作状態と、を関連付けている語彙情報を参照して、デバイス状態情報に示されるデバイスの動作状態に関連付けられている一以上の指示フレーズを抽出するフレーズ抽出機能と、フレーズ抽出機能により抽出された指示フレーズに基づいて、デバイスを制御するための発話文を生成する生成機能と、生成機能により生成された発話文をユーザに対して提示する提示機能と、を実現させる。 In order to solve the above problems, an interaction program according to one embodiment of the present invention causes a computer to function as an interaction device that receives user utterances consisting of voice or text to generate control information for controlling a device. An interactive program that includes a device status acquisition function that acquires device status information indicating the operating status of the device, an instruction phrase that represents a device control instruction and includes at least one or more words or sentences, and the operating status of the device; a phrase extraction function that extracts one or more instruction phrases associated with the operating state of the device indicated in the device status information by referring to vocabulary information associated with the device status information; This realizes a generation function that generates an utterance for controlling a device, and a presentation function that presents the utterance generated by the generation function to a user.
上記の形態によれば、デバイスの動作状態が取得され、取得されたデバイスの動作状態に関連付けられた指示フレーズに基づいて発話文が生成されるので、デバイスの動作状態に応じた好適な発話文をユーザに提示できる。ユーザは、提示された発話文を発話することにより、デバイスの動作状態に応じて適切な制御を実施できるので、利便性の向上が図られる。また、ユーザに対して提示される発話文が、デバイス状態情報に基づいて限定されることとなるので、発話文の提示にかかる処理負荷及び通信量が削減される。 According to the above embodiment, the operating state of the device is obtained, and the utterance is generated based on the instruction phrase associated with the obtained operating state of the device, so that the utterance is suitable for the operating state of the device. can be presented to the user. By speaking the presented utterance sentence, the user can perform appropriate control according to the operating state of the device, thereby improving convenience. Furthermore, since the utterances presented to the user are limited based on the device status information, the processing load and communication amount associated with presenting the utterances are reduced.
上記課題を解決するために、本発明の一形態に係る対話装置は、デバイスを制御する制御情報を生成するための、音声またはテキストからなるユーザ発話を受け付ける対話装置であって、ユーザ発話の発話元のユーザを識別するユーザ識別情報を取得するユーザ情報取得部と、ユーザ情報取得部により取得されたユーザ識別情報により識別されるユーザの属性情報であって、デバイスの制御状態に関するユーザの好みを示す情報を含む、属性情報を取得するユーザ属性取得部と、デバイスの制御指示を表し少なくとも一以上の語句または文を含む指示フレーズと、当該デバイスに関するユーザの好みの制御状態と、を関連付けている語彙情報を参照して、属性情報により示されるユーザの好みの制御状態に関連付けられている一以上の指示フレーズを抽出するフレーズ抽出部と、フレーズ抽出部により抽出された指示フレーズに基づいて、デバイスを制御するための発話文を生成する生成部と、生成部により生成された発話文をユーザに対して提示する提示部と、を備える。 In order to solve the above problems, an interaction device according to one embodiment of the present invention is an interaction device that receives user utterances consisting of voice or text for generating control information for controlling a device, and includes: a user information acquisition unit that acquires user identification information that identifies the original user; and attribute information of the user identified by the user identification information acquired by the user information acquisition unit, the user's preference regarding the control state of the device being determined. A user attribute acquisition unit that acquires attribute information including information indicating the device, an instruction phrase representing a device control instruction and including at least one word or sentence, and a user's preferred control state regarding the device are associated. a phrase extraction section that refers to the vocabulary information and extracts one or more instruction phrases associated with the user's preferred control state indicated by the attribute information; The present invention includes a generation unit that generates an utterance for controlling the utterance, and a presentation unit that presents the utterance generated by the generation unit to the user.
上記課題を解決するために、本発明の一形態に係る対話プログラムは、コンピュータを、デバイスを制御する制御情報を生成するための、音声またはテキストからなるユーザ発話を受け付ける対話装置として機能させるための対話プログラムであって、ユーザ発話の発話元のユーザを識別するユーザ識別情報を取得するユーザ情報取得機能と、ユーザ情報取得機能により取得されたユーザ識別情報により識別されるユーザの属性情報であって、デバイスの制御状態に関するユーザの好みを示す情報を含む、属性情報を取得するユーザ属性取得機能と、デバイスの制御指示を表し少なくとも一以上の語句または文を含む指示フレーズと、当該デバイスに関するユーザの好みの制御状態と、を関連付けている語彙情報を参照して、属性情報により示されるユーザの好みの制御状態に関連付けられている一以上の指示フレーズを抽出するフレーズ抽出機能と、フレーズ抽出機能により抽出された指示フレーズに基づいて、デバイスを制御するための発話文を生成する生成機能と、生成機能により生成された発話文をユーザに対して提示する提示機能と、を実現させる。 In order to solve the above problems, an interaction program according to one embodiment of the present invention causes a computer to function as an interaction device that receives user utterances consisting of voice or text to generate control information for controlling a device. An interaction program, comprising a user information acquisition function for acquiring user identification information for identifying a user who has uttered user utterances, and user attribute information identified by the user identification information acquired by the user information acquisition function. , a user attribute acquisition function that acquires attribute information including information indicating the user's preferences regarding the control state of the device; an instruction phrase representing a device control instruction and including at least one word or sentence; A phrase extraction function that extracts one or more instruction phrases associated with the user's favorite control state indicated by the attribute information by referring to vocabulary information that associates the user's favorite control state; A generation function that generates an utterance for controlling a device based on the extracted instruction phrase, and a presentation function that presents the utterance generated by the generation function to a user are realized.
上記の形態によれば、ユーザ発話の発話元のユーザの、デバイスの制御状態に関する好みを示す属性情報が取得され、当該ユーザの好みに関連付けられた指示フレーズが抽出されるので、ユーザにとって好適なデバイスの制御が実施される可能性が高い発話文を提示できる。このように提示された発話文をユーザが発話することにより、ユーザが好む動作状態にデバイスが制御されるので、利便性の向上が図られる。また、ユーザに対して提示される発話文が、ユーザの属性情報に基づいて限定されることとなるので、発話文の提示にかかる処理負荷及び通信量が削減される。 According to the above embodiment, attribute information indicating preferences regarding the control state of the device of the user who has uttered the user utterance is acquired, and instruction phrases associated with the user's preferences are extracted, so that the user can find information suitable for the user. It is possible to present utterances that are likely to result in device control. When the user utters the utterances presented in this manner, the device is controlled to the operating state preferred by the user, thereby improving convenience. Furthermore, since the utterances presented to the user are limited based on the user's attribute information, the processing load and communication amount associated with presenting the utterances are reduced.
ユーザの発話によりデバイスを制御する技術において、制御対象のデバイスの状態及びユーザに応じて、好適な発話内容を案内することにより、利便性の向上を図ることが可能となる。 In a technology for controlling a device based on a user's utterances, it is possible to improve convenience by guiding suitable utterance content depending on the state of the device to be controlled and the user.
本発明に係る対話装置及び対話プログラムの実施形態について図面を参照して説明する。なお、可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 Embodiments of a dialogue device and a dialogue program according to the present invention will be described with reference to the drawings. In addition, if possible, the same parts are given the same reference numerals and redundant explanations will be omitted.
図1は、本実施形態に係る対話システムの装置構成を示す図である。対話システム1は、対話装置10、外部システム30及び端末50を含む。対話装置10と端末50とは、互いに通信可能である。また、対話装置10と外部システム30とは互いに通信可能である。
FIG. 1 is a diagram showing the device configuration of a dialogue system according to this embodiment. The
対話装置10は、デバイスを制御する制御情報を生成するための、音声またはテキストからなるユーザ発話を受け付ける装置である。また、対話装置10は、外部システム30が管理するデバイスを操作するために、制御情報を外部システム30に送信してもよい。対話装置10は、例えば、サーバ等のコンピュータにより構成されるが、対話装置10を構成する装置は限定されない。
The
外部システム30は、家電機器等を含むいわゆるIoT(Internet of Things)デバイス等のデバイスを管理するデバイス管理システムを構成する。外部システム30は、複数のデバイスとそれぞれの通信規格に従った通信をすることが可能である。
The
外部システム30は、各デバイスを制御するためのインターフェースを構成しうる設定情報をデバイス毎に有しており、設定情報の利用及び参照により、対話装置10から受信した制御情報に基づいて、管理下にあるデバイスのいずれかを制御できる。
The
外部システム30は、設定情報記憶部31及びデバイス状態管理部32を含むことができる。設定情報記憶部31は、制御対象のデバイスの設定情報を記憶している記憶手段である。設定情報は、デバイスの制御のために利用及び参照される情報である。設定情報の詳細については後述する。なお、図1に示す例では、設定情報記憶部31は、外部システム30内に構成されているが、このような構成には限定されず、外部システム30からアクセス可能であれば、外部システム30外に構成されてもよい。
The
デバイス状態管理部32は、外部システム30が管理しているデバイスの動作状態を示すデバイス状態情報を管理する。具体的には、デバイス状態管理部32は、デバイス状態情報を取得及び記憶することができる。デバイス状態情報については、後に詳述する。
The device
端末50は、発話によるデバイスの制御において、ユーザとのインターフェースを構成する装置であって、例えば、据置型又は携帯型のパーソナルコンピュータ、高機能携帯電話機(スマートフォン)等により構成されるが、端末50を構成する装置は限定されず、例えば携帯電話機、携帯情報端末(PDA)などの携帯端末でもよい。 The terminal 50 is a device that constitutes an interface with the user in controlling the device by speech, and is composed of, for example, a stationary or portable personal computer, a high-performance mobile phone (smartphone), etc. The device constituting the device is not limited, and may be, for example, a mobile terminal such as a mobile phone or a personal digital assistant (PDA).
端末50は、ユーザに発せられた音声のデータをユーザ発話として対話装置に送信できる。また、端末50は、ユーザの音声を音声認識処理によりテキスト化したデータをユーザ発話として対話装置10に送信してもよい。
The terminal 50 can transmit data of the voice uttered by the user to the dialogue device as user utterance. Further, the terminal 50 may transmit data obtained by converting the user's voice into text through voice recognition processing to the
また、端末50は、後述されるように、対話装置10から送信された発話文をユーザに対して提示できる。具体的には、端末50は、発話文を示すテキストをディスプレイに表示することにより、発話文をユーザに提示する。また、端末50は、発話文を示すテキストが関連付けられ指示操作が可能な操作オブジェクトをディスプレイに表示してもよい。操作オブジェクトは、ユーザによる操作が可能なボタンの態様で表示されてもよい。表示された操作オブジェクトに対する操作が受け付けられた場合には、端末50は、操作オブジェクトが操作された旨の情報、操作オブジェクトに関連付けられた発話文のテキストデータまたは音声データを、ユーザ発話として対話装置10に送信してもよい。
Further, the terminal 50 can present the utterance transmitted from the
図2は、本実施形態に係る対話装置10の機能的構成を示す図である。図2に示すように、対話装置10は、外部システム情報取得部11、ユーザ情報取得部12、デバイス抽出部13、ユーザ属性取得部14、フレーズ抽出部15、生成部16、提示部17、発話受付部18及び制御指示送信部19を含む。外部システム情報取得部11は、設定情報取得部11A及びデバイス状態取得部11Bを含む。また、対話装置10は、語彙情報記憶部20及びユーザ属性記憶部21を含む。対話装置10に含まれる各機能部は、複数の装置に分散されて構成されても良いし、例えば、一部の機能部が端末50に構成されてもよい。
FIG. 2 is a diagram showing the functional configuration of the
なお、図2に示したブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。 Note that the block diagram shown in FIG. 2 shows blocks in functional units. These functional blocks (components) are realized by any combination of hardware and/or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and/or logically coupled device, or may be realized by directly and/or indirectly implementing two or more physically and/or logically separated devices. It may also be realized by a plurality of devices connected to each other (for example, by wire and/or wirelessly).
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, exploration, confirmation, reception, transmission, output, access, resolution, selection, selection, establishment, comparison, assumption, expectation, consideration, These include, but are not limited to, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, and assigning. I can't. For example, a functional block (configuration unit) that performs transmission is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.
例えば、本発明の一実施の形態における対話装置10は、コンピュータとして機能してもよい。図3は、本実施形態に係る対話装置10のハードウェア構成の一例を示す図である。対話装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
For example, the
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。対話装置10のハードウェア構成は、図3に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
In addition, in the following description, the word "apparatus" can be read as a circuit, a device, a unit, etc. The hardware configuration of the
対話装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
Each function in the
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。また、プロセッサ1001は、GPU(Graphics Processing Unit)を含んで構成されてもよい。例えば、図2に示した各機能部11~19などは、プロセッサ1001で実現されてもよい。
The
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、対話装置10の各機能部11~19は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
Further, the
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る対話方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。
The
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
Further, each device such as the
また、対話装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
The
再び図2を参照して、対話装置10の各機能部について説明する。外部システム情報取得部11は、外部システム30から種々の情報を取得する。具体的には、外部システム情報取得部11は、設定情報取得部11A及びデバイス状態取得部11Bを含み、設定情報及びデバイス状態情報を取得する。
Referring again to FIG. 2, each functional section of the
設定情報取得部11Aは、設定情報を取得する。具体的には、設定情報取得部11Aは、外部システム30の設定情報記憶部31から設定情報を取得する。設定情報は、各デバイスの属性を含みデバイスの制御のために参照される。
The setting
図4は、設定情報記憶部31の構成及び記憶されているデータの例を示す情報である。図4に示すように、設定情報記憶部31は、デバイスを識別するデバイスIDに関連付けて、各種の属性を設定情報として記憶している。図4に示す例では、設定情報記憶部31は、デバイスIDごとに、当該デバイスのカテゴリを示すデバイス、ニックネーム及びグループ等の設定情報を記憶している。
FIG. 4 shows information showing an example of the configuration of the setting
ニックネームは、当該デバイスに対してユーザにより設定される名称であって、発話文において、当該デバイスを指し示すための名称である。図4に示す例では、各デバイスがそれぞれ一のニックネームが設定されているが、一のデバイスに対して、複数のユーザのそれぞれにより固有のニックネームが設定されてもよい。ニックネームの設定は、ユーザからみて、各デバイスがそれぞれにユニークに識別されればよい。グループは、当該デバイスが設けられた所在位置を示す情報であることができる。また、グループは、複数のデバイスをグルーピングするためのその他の情報であってもよい。 The nickname is a name set by the user for the device, and is a name used to indicate the device in the utterance. In the example shown in FIG. 4, one nickname is set for each device, but unique nicknames may be set for one device by each of a plurality of users. The nickname setting only needs to uniquely identify each device from the user's perspective. The group can be information indicating the location where the device is installed. Furthermore, the group may be other information for grouping multiple devices.
例えば、設定情報記憶部31は、デバイスID「1」に関連付けて、デバイス「TV」、ニックネーム「お父さんのTV」及びグループ「リビング」等の設定情報を記憶している。
For example, the setting
設定情報取得部11Aは、ユーザ発話を受け付ける待機状態の所定のタイミングにおいて、所定の分量の設定情報を一括で取得してもよい。また、設定情報取得部11Aは、後に詳述されるデバイス抽出部13及びフレーズ抽出部15等において設定情報が参照されるタイミングにおいて、その都度に必要な設定情報を取得してもよい。
The setting
デバイス状態取得部11Bは、デバイス状態情報を取得する。デバイス状態情報は、外部システム30が管理しているデバイスの動作状態を示す情報である。デバイス状態情報は、例えば、外部システム30のデバイス状態管理部32により管理されている。デバイス状態管理部32は、管理下の各デバイスの動作状態を取得し記憶している。デバイス状態管理部32は、記憶しているデバイスの動作状態を示す情報を、デバイス状態情報として対話装置10に提供する。
The device
デバイス状態取得部11Bは、デバイス状態管理部32からデバイス状態情報を取得できる。図5は、デバイス状態情報の例を示す図である。図5に示すように、デバイス状態情報は、デバイスを識別するデバイスIDごとに、デバイスのカテゴリ及びデバイス動作状態を含む。例えば、デバイスID「1」のデバイスのカテゴリは「TV」であり、デバイス動作状態は「電源:ON、チャンネル:4、音量レベル:18」である。
The device
ユーザ情報取得部12は、ユーザ発話の発話元のユーザを識別するユーザ識別情報を取得する。具体的には、ユーザ情報取得部12は、ユーザの端末50からユーザ識別情報を取得できる。ユーザ情報取得部12は、例えば、アカウント認証等の処理のために端末50から対話装置10に送信されるユーザ識別情報を取得できる。
The user
また、ユーザ情報取得部12は、ユーザの位置を示す位置情報をユーザの情報の一部として取得してもよい。具体的には、ユーザ情報取得部12は、例えば、ユーザの端末50が備えるGPS装置(図示せず)等により取得された位置情報を取得する。ユーザ情報取得部12は、本実施形態の対話システム1が適用される空間に設けられた人感センサ(図示せず)により検出された検出情報に基づいて、ユーザの位置情報を取得してもよい。また、端末50が移動無線通信端末である場合には、ユーザ情報取得部12は、端末50の在圏情報を位置情報として取得してもよい。ユーザ情報取得部12は、その他の周知の手法によりユーザの位置情報を取得してもよい。
Further, the user
デバイス抽出部13は、例えばユーザ情報取得部12によりユーザの位置情報が取得された場合には、指示フレーズの抽出及び発話文の生成に先立って制御対象のデバイスを絞り込むために、設定情報を参照して、ユーザ情報取得部12により取得された位置情報に関連付けられたデバイスを抽出してもよい。なお、デバイス抽出部13は、本実施形態において必須の構成要素ではなく、デバイスの抽出処理も必須ではない。
For example, when the user
上記のとおり、設定情報は、デバイスと当該デバイスの所在位置を示すグループとの関連付けを含むので、デバイス抽出部13は、設定情報を参照することにより、ユーザの所在位置に所在するデバイスを抽出できる。例えば、ユーザ情報取得部12により取得された位置情報により、ユーザの所在位置がリビングであることが示される場合には、デバイス抽出部13は、図4に示される設定情報を参照して、「リビング」に関連付けられたデバイスであるデバイスID「1」の「TV」、デバイスID「2」の「ライト」、デバイスID「3」の「ライト」及びデバイスID「5」の「エアコン」を抽出する。
As described above, since the setting information includes an association between a device and a group indicating the location of the device, the
ユーザ属性取得部14は、ユーザ情報取得部12により取得されたユーザ識別情報により識別されるユーザの属性情報を取得する。ユーザの属性情報は、デバイスの制御状態に関するユーザの好みを示す情報を含み、例えば、本実施形態では、ユーザ属性記憶部21に記憶されている。ユーザ属性取得部14は、ユーザ属性記憶部21から、ユーザの属性情報を取得する。
The user
図6は、ユーザ属性記憶部21に記憶されている属性情報の構成及び記憶されているデータの例を示す図である。図6に示すように、ユーザ属性記憶部21は、ユーザを識別するユーザID(ユーザ識別情報)及びユーザ名に関連付けて、温度、湿度、明るさ、音量レベル及びテレビのチャンネル等の属性情報を記憶している。
FIG. 6 is a diagram illustrating a configuration of attribute information stored in the user
属性情報のうちの温度及び湿度は、例えば、エアコンの制御のための指示フレーズの抽出に際して参照される。また、属性情報のうちの明るさは、ライト(照明装置)の制御のための指示フレーズの抽出に際して参照される。また、属性情報のうちの音量レベル及びテレビのチャンネルは、テレビの制御のための指示フレーズの抽出に際して参照される。 Temperature and humidity of the attribute information are referenced, for example, when extracting instruction phrases for controlling an air conditioner. Further, the brightness of the attribute information is referred to when extracting an instruction phrase for controlling the light (lighting device). Furthermore, the volume level and television channel of the attribute information are referred to when extracting an instruction phrase for controlling the television.
例えば、ユーザID「0001」により識別されるユーザである「father」には、温度「22℃-25℃」、湿度「30%-50%」、明るさ「500-1000lux」、音量レベル「30-35」及びテレビのチャンネル「1,2,4,7」が、デバイスの制御状態に関する好みを示す属性情報として関連付けられている。 For example, the user "father" identified by the user ID "0001" has the following settings: temperature "22℃-25℃", humidity "30%-50%", brightness "500-1000lux", and volume level "30℃". -35'' and television channels ``1, 2, 4, 7'' are associated as attribute information indicating preferences regarding the control state of the device.
フレーズ抽出部15は、語彙情報を参照して、デバイス状態情報に示されるデバイスの動作状態に関連付けられている一以上の指示フレーズを抽出する。語彙情報は、各デバイスと、当該デバイスの制御指示を表し少なくとも一以上の語句または文を含む指示フレーズとを関連付けている情報である。フレーズ抽出部15は、語彙情報記憶部20に記憶されている語彙情報を参照して指示フレーズを抽出する。
The
図7は、語彙情報記憶部20の構成及び記憶されているデータの例を示す図である。図7に示されるように、語彙情報記憶部20は、デバイスの種別を示すデバイスカテゴリに少なくとも指示フレーズを関連付けた語彙情報を記憶している。語彙情報は、デバイスカテゴリに関連付けて、制御内容、設定項目をさらに含んでもよい。制御内容は、関連付けられている指示フレーズの発話により達せられる目的であって、デバイスに対して実施される制御の内容を示す。設定項目は、例えば制御内容がデバイスのパラメータの変更に関するものである場合等において、指示フレーズに対してオプションとして付加される、パラメータの変更幅等に関する語句である。
FIG. 7 is a diagram showing an example of the configuration of the vocabulary
図7に示されるように、語彙情報の各指示フレーズには、デバイス動作状態が関連付けられている。例えば、TVをONの状態に制御する必要があるのは、電源がOFFの状態のときであることに鑑みて、デバイス「TV」を制御内容「ON」に制御するための指示フレーズ「つけて」には、デバイス動作状態「電源:OFF」が関連付けられている。 As shown in FIG. 7, each instruction phrase in the vocabulary information is associated with a device operating state. For example, considering that it is necessary to control the TV to the ON state when the power is OFF, the instruction phrase "Turn on" is used to control the device "TV" to the control content "ON". ” is associated with the device operating state “Power: OFF”.
また、エアコンの設定温度を上げる制御を実施する必要があるのは、設定温度が低い場合であることに鑑みて、デバイス「エアコン」を制御内容「設定温度を上げる」に制御するための指示フレーズ「温度を上げて」には、デバイス動作状態「電源:ON and 設定温度:25度以下」,「電源:ON and 設定温度:23度以下」が関連付けられている。 In addition, considering that it is necessary to control the air conditioner to raise the set temperature when the set temperature is low, we have created an instruction phrase to control the device "air conditioner" to the control content "increase the set temperature". "Raise the temperature" is associated with the device operating states "Power: ON and set temperature: 25 degrees or less" and "Power: ON and set temperature: 23 degrees or less".
図5に示すように、デバイス状態情報は、デバイスが動作中(例えば、「電源:ON」)または非動作中(例えば、「電源:OFF」)であることを示す情報を含むことができる。このような場合に、フレーズ抽出部15は、デバイスが動作中である場合には、デバイスを非動作状態に制御するための指示フレーズを抽出し、デバイスが非動作中である場合には、デバイスを動作状態に制御するための指示フレーズを抽出することができる。
As shown in FIG. 5, the device status information may include information indicating that the device is operating (eg, "power ON") or non-operating (eg, "power OFF"). In such a case, the
具体的には、デバイス状態取得部11Bにより、図5に示されるようなデバイス状態情報「デバイスID「1」、デバイス「TV」、デバイス動作状態「電源:ON、・・・」が取得された場合に、フレーズ抽出部15は、語彙情報(図7参照)を参照して、デバイス動作状態「電源:ON」に関連付けられており、デバイス「TV]を制御内容「OFF」に制御するための指示フレーズ「けして」を抽出する。
Specifically, the device
また、例えば、デバイス状態取得部11Bにより、図5に示されるようなデバイス状態情報「デバイスID「2」、デバイス「ライト」、デバイス動作状態「電源:OFF、・・・」が取得された場合に、フレーズ抽出部15は、語彙情報(図7参照)を参照して、デバイス動作状態「電源:OFF」に関連付けられており、デバイス「ライト]を制御内容「ON」に制御するための指示フレーズ「つけて」を抽出する。
Further, for example, if the device
また、図5に示すように、デバイス状態情報は、デバイスの動作に関する所定のパラメータを含むことができる。具体的には、例えば、デバイスID「1」及びデバイス「TV」のデバイス状態情報は、チャンネル「4」及び音量レベル「18」のようなTVの動作に関するパラメータをデバイス状態情報として含む。また、例えば、デバイスID「5」及びデバイス「エアコン」のデバイス状態情報は、設定温度「24度」及び設定湿度「50%」のようなエアコンの動作に関するパラメータをデバイス状態情報として含む。 Further, as shown in FIG. 5, the device status information can include predetermined parameters regarding the operation of the device. Specifically, for example, the device state information of the device ID "1" and the device "TV" includes parameters regarding the operation of the TV, such as channel "4" and volume level "18", as the device state information. Further, for example, the device state information of the device ID "5" and the device "air conditioner" includes parameters related to the operation of the air conditioner, such as the set temperature "24 degrees" and the set humidity "50%".
このような場合に、フレーズ抽出部15は、デバイス状態情報に含まれるパラメータが第1の範囲に含まれる場合には、当該デバイスのパラメータを、第1の範囲とは異なる第2の範囲に制御するための指示フレーズを抽出することができる。
In such a case, if the parameters included in the device status information are included in the first range, the
具体的には、デバイス状態取得部11Bにより、図5に示されるようなデバイス状態情報「デバイスID「5」、デバイス「エアコン」、デバイス動作状態「設定温度:24度、・・・」が取得された場合に、フレーズ抽出部15は、語彙情報(図7参照)を参照して、デバイス動作状態「設定温度:25度以下」に関連付けられており、デバイス「エアコン]を制御内容「設定温度を上げる」に制御するための指示フレーズ「温度を上げて」を抽出する。即ち、デバイス動作状態における設定温度が25度未満の範囲(第1の範囲)に含まれるので、設定温度を25度以上の範囲(第2の範囲)に制御するために、このような指示フレーズが抽出される。
Specifically, the device
なお、この指示フレーズの抽出に際して、デバイス動作状態における「設定温度:24度」は、指示フレーズ「温度を上げて」に関連付けられている2つの設定項目「少し」及び「2度」のそれぞれに関連付けられたデバイス動作状態のうちの、「少し」に関連付けられたデバイス動作状態に該当するので、設定項目に設定されたオプションのフレーズ「少し」がさらに抽出されてもよい。 In addition, when extracting this instruction phrase, "Set temperature: 24 degrees" in the device operating state is changed to each of the two setting items "a little" and "2 degrees" associated with the instruction phrase "Raise the temperature". Since it corresponds to the device operating state associated with "a little" out of the associated device operating states, the optional phrase "a little" set in the setting item may be further extracted.
また、フレーズ抽出部15は、語彙情報を参照して、ユーザの属性情報により示される当該ユーザの好みの制御状態に関連付けられている一以上の指示フレーズを抽出してもよい。
Furthermore, the
図7に示されるように、語彙情報は、各指示フレーズに関連付けられたユーザ属性を含む。例えば、エアコンの設定温度を上げる制御を実施する必要があるのは、ユーザが高い設定温度を好む場合であることに鑑みて、デバイス「エアコン」に対して制御内容「設定温度を上げる」を実施するための指示フレーズ「温度を上げて」には、高い温度のユーザ属性「26度以上」が関連付けられている。 As shown in FIG. 7, the vocabulary information includes user attributes associated with each instruction phrase. For example, considering that it is necessary to control the setting temperature of an air conditioner to increase when the user prefers a high temperature setting, the control content ``increase the setting temperature'' is implemented for the device ``air conditioner.'' The instruction phrase "Raise the temperature" is associated with the user attribute of high temperature "26 degrees or higher."
例えば、ユーザ情報取得部12によりユーザID「0001」が取得され、ユーザ属性取得部14によりユーザID「0001」に関連付けられたユーザ属性「ユーザ名:father、温度:22-25度、・・・」が取得された場合に、フレーズ抽出部15は、語彙情報を参照して、ユーザ属性「温度25度以下」に関連付けられており、デバイス「エアコン]を制御内容「温度を下げる」に制御するための指示フレーズ「温度を下げて」を抽出する。
For example, the user
また、例えば、ユーザ情報取得部12によりユーザID「0002」が取得され、ユーザ属性取得部14によりユーザID「0002」に関連付けられたユーザ属性「ユーザ名:mother、温度:26-28度、・・・」が取得された場合に、フレーズ抽出部15は、語彙情報を参照して、ユーザ属性「温度26度以上」に関連付けられており、デバイス「エアコン]を制御内容「温度を上げる」に制御するための指示フレーズ「温度を上げて」を抽出する。
Further, for example, the user
また、フレーズ抽出部15は、語彙情報を参照して、デバイス状態情報に示されるデバイスの動作状態及びユーザの属性情報により示される当該ユーザの好みの制御状態に関連付けられている一以上の指示フレーズを抽出してもよい。
Further, the
例えば、ユーザ情報取得部12によりユーザID「0003」が取得され、ユーザ属性取得部14によりユーザID「0003」に関連付けられたユーザ属性「ユーザ名:daughter、・・・、音量レベル:10-20、・・・」が取得され、デバイス状態取得部11Bにより、デバイス状態情報「デバイスID「1」、デバイス「TV」、デバイス動作状態「電源:ON、・・・、音量レベル:18」が取得された場合に、フレーズ抽出部15は、語彙情報を参照して、デバイスカテゴリ「TV」に関連付けられた指示フレーズのうち、ユーザ属性「音量レベル:20以下」及びデバイス動作状態「電源:ON and 音量レベル:15以上」に関連付けられた指示フレーズ「音量を下げて」及びオプションとしての設定項目「少し」を抽出する。
For example, the user
また、デバイス抽出部13により、ユーザの所在位置に所在するデバイスが抽出されている場合には、フレーズ抽出部15は、語彙情報を参照して、デバイス抽出部13により抽出されたデバイスに関連付けられている一以上の指示フレーズを抽出することとしてもよい。フレーズ抽出部15は、例えば、デバイス抽出部により抽出されたデバイスが「TV」である場合に、デバイスカテゴリ「TV」に関連付けられた指示フレーズである「つけて」、「けして」、「音量を上げて」、「音量を下げて」及び「チャンネルを変えて」を語彙情報から抽出する。
Further, when the
生成部16は、フレーズ抽出部15により抽出された指示フレーズに基づいて、デバイスを制御するための発話文を生成する。具体的には、生成部16は、フレーズ抽出部15により抽出された指示フレーズを発話文として生成してもよい。
The
また、生成部16は、フレーズ抽出部15により抽出された指示フレーズに関連付けられたデバイスカテゴリを、制御対象を示す語句として指示フレーズに付加して、発話文を生成してもよい。例えば、フレーズ抽出部15によりデバイス「TV」の制御内容「ON」に対応する指示フレーズ「つけて」が抽出された場合には、生成部16は、その制御対象を示す「TV」及び助詞を指示フレーズ「つけて」に付加して、発話文「TVをつけて」を生成してもよい。
Further, the
また、生成部16は、フレーズ抽出部15により抽出された指示フレーズ及び指示フレーズの制御対象のデバイスのニックネームに基づいて、発話文を生成してもよい。例えば、フレーズ抽出部15によりデバイス「TV」の制御内容「ON」に対応する指示フレーズ「つけて」が抽出された場合には、生成部16は、その制御対象である「TV」のニックネーム「お父さんのTV」及び助詞を指示フレーズ「つけて」に付加して、発話文「お父さんのTVをつけて」を生成してもよい。
Further, the
また、生成部16は、フレーズ抽出部15により抽出された指示フレーズがデバイスのパラメータの変更を目的とするものである場合に、その変更幅を示す語句を指示フレーズに付加して、発話文を生成してもよい。例えば、フレーズ抽出部15により、デバイス「エアコン」の制御内容「設定温度を上げる」に対応する指示フレーズ「温度を上げて」が抽出された場合には、生成部16は、エアコンのパラメータである温度の変更幅を示す語句として設定項目に記憶されている「少し」,「2度」という語句を指示フレーズに付加して、発話文「温度を少し上げて」,「温度を2度上げて」を生成してもよい。なお、デバイス動作状態等に応じて、これら2つの発話文のうちのいずれかが生成されてもよい。
Furthermore, when the instruction phrase extracted by the
提示部17は、生成部16により生成された発話文をユーザに対して提示する。具体的には、提示部17は、発話文を示すテキスト情報をユーザの端末50に送信し、発話文を示すテキストを端末50のディスプレイに表示させる。
The
図8は、発話文が表示されたユーザの端末50の画面例を示す図である。図8に示されるように、端末50のディスプレイDは、発話文を示すテキストb1「リビングのエアコンの温度を2度下げて」,テキストb2「お父さんのTVをつけて」を含む。このように、生成された発話文を示すテキストがユーザの端末50において提示されることにより、ユーザはその発話文を発することができる。
FIG. 8 is a diagram showing an example of the screen of the user's
また、提示部17は、発話文を示すテキストが関連付けられ指示操作可能な操作オブジェクトをユーザの端末50に表示させてもよい。この場合には、提示部17は、図8の画面例において、テキストb1及びテキストb2のそれぞれを、ユーザにより指示操作可能なボタン等の操作オブジェクトとして構成して、ディスプレイDに表示させる。提示部17が、このような操作オブジェクトを端末50に表示させる場合には、対話装置10は、ユーザの端末50において操作オブジェクトが操作された場合に、テキストの内容の音声からなるユーザ発話を受け付けた場合と同様のデバイスの制御情報を生成する。
Further, the
発話受付部18は、ユーザの発話をユーザ発話として受け付ける。具体的には、発話受付部18は、発話文を提示されたユーザが端末50に対して発した発話を表す音声またはテキストを、端末50を介して、ユーザ発話として受け付ける。
The
また、発話文が関連付けられたボタン等の操作オブジェクトが端末50において提示され、操作オブジェクトに対する指示操作が端末50において受け付けられた場合には、発話受付部18は、操作オブジェクトが操作された旨の情報をユーザ発話として受け付ける。
Further, when an operation object such as a button with which an utterance is associated is presented on the terminal 50 and an instruction operation for the operation object is accepted at the terminal 50, the
制御指示送信部19は、ユーザ発話に基づいて、外部システム30により管理されているデバイスを制御するための制御情報を送信する。具体的には、発話受付部18により音声データからなるユーザ発話が受け付けられた場合には、制御指示送信部19は、ユーザ発話に対して、音声認識処理、形態素解析及び所定の解析処理を実施することにより、デバイスを制御するための制御情報を生成し、生成した制御情報を外部システム30に送信する。なお、ユーザ発話がテキストデータとして受け付けられた場合には、音声認識処理は不要である。
The
操作オブジェクトが操作された旨の情報がユーザ発話として受け付けられた場合には、制御指示送信部19は、当該操作オブジェクトに関連付けられた発話文のテキストデータがユーザ発話として受け付けられたものとみなして、そのテキストデータに対する形態素解析及び所定の解析処理を実施することにより、デバイスを制御するための制御情報を生成する。
When information indicating that the operation object has been operated is received as a user utterance, the
次に、図9を参照して、対話装置10における処理内容を説明する。図9は、本実施形態の対話方法の処理内容を示すフローチャートである。
Next, with reference to FIG. 9, processing contents in the
ステップS1において、ユーザ情報取得部12は、ユーザ発話の発話元のユーザを識別するユーザ識別情報を取得する。そして、対話装置10は、ユーザ発話の受付待機状態に制御される。具体的には、発話受付部18が、ユーザ発話の受付待機状態に制御される。
In step S1, the user
ステップS2において、設定情報取得部11Aは、外部システム30の設定情報記憶部31から設定情報を取得する。
In step S2, the configuration
ステップS3において、デバイス状態取得部11Bは、デバイス状態管理部32からデバイス状態情報を取得する。ステップS4において、デバイス状態取得部11Bは、デバイス状態情報の取得に成功したか否かを判定する。デバイス状態情報の取得に成功したと判定された場合には、処理はステップS5に進む。一方、デバイス状態情報の取得に成功したと判定されなかった場合には、処理はステップS6に進む。
In step S3, the device
ステップS5において、フレーズ抽出部15は、語彙情報を参照して、デバイス状態情報に示されるデバイスの動作状態に関連付けられている一以上の指示フレーズを抽出する。
In step S5, the
一方、ステップS6では、フレーズ抽出部15は、デバイスの動作状態に依存しないで、指示フレーズを抽出する。具体的には、フレーズ抽出部15は、例えば、語彙情報からランダムに指示フレーズを抽出してもよい。また、フレーズ抽出部15は、例えば、指示フレーズの抽出の履歴を参照して、直近に受け付けられた指示フレーズ、抽出回数が多い指示フレーズ等を抽出してもよい。
On the other hand, in step S6, the
ステップS7において、生成部16は、ステップS5またはステップS6においてフレーズ抽出部15により抽出された指示フレーズに基づいて、デバイスを制御するための発話文を生成する。
In step S7, the
ステップS8において、提示部17は、生成部16により生成された発話文をユーザに対して提示する。具体的には、提示部17は、発話文を示すテキスト情報をユーザの端末50に送信し、発話文を示すテキストを端末50のディスプレイに表示させる。
In step S8, the
次に、図10を参照して、対話装置10における処理内容の他の例を説明する。図10は、本実施形態の対話方法の処理内容を示すフローチャートである。図9に示した処理ではデバイス状態情報が用いられるのに対して、図10に示す処理では、ユーザの属性情報が用いられる。
Next, with reference to FIG. 10, another example of processing contents in the
ステップS11において、ユーザ情報取得部12は、ユーザ発話の発話元のユーザを識別するユーザ識別情報を取得する。そして、対話装置10は、ユーザ発話の受付待機状態に制御される。具体的には、発話受付部18が、ユーザ発話の受付待機状態に制御される。
In step S11, the user
ステップS12において、設定情報取得部11Aは、外部システム30の設定情報記憶部31から設定情報を取得する。
In step S12, the configuration
ステップS13において、ユーザ属性取得部14は、ユーザ情報取得部12により取得されたユーザ識別情報により識別されるユーザの属性情報を取得する。ステップS14において、ユーザ属性取得部14は、ユーザの属性情報の取得に成功したか否かを判定する。ユーザの属性情報の取得に成功したと判定された場合には、処理はステップS15に進む。一方、ユーザの属性情報の取得に成功したと判定されなかった場合には、処理はステップS16に進む。
In step S13, the user
ステップS15において、フレーズ抽出部15は、語彙情報を参照して、ユーザの属性情報に示される当該ユーザの好みのデバイスの制御状態に関連付けられている一以上の指示フレーズを抽出する。
In step S15, the
一方、ステップS16では、フレーズ抽出部15は、ユーザの属性情報に依存しないで、指示フレーズを抽出する。具体的には、フレーズ抽出部15は、例えば、語彙情報からランダムに指示フレーズを抽出してもよい。また、フレーズ抽出部15は、例えば、指示フレーズの抽出の履歴を参照して、直近に受け付けられた指示フレーズ、抽出回数が多い指示フレーズ等を抽出してもよい。
On the other hand, in step S16, the
ステップS17において、生成部16は、ステップS15またはステップS16においてフレーズ抽出部15により抽出された指示フレーズに基づいて、デバイスを制御するための発話文を生成する。
In step S17, the
ステップS18において、提示部17は、生成部16により生成された発話文をユーザに対して提示する。具体的には、提示部17は、発話文を示すテキスト情報をユーザの端末50に送信し、発話文を示すテキストを端末50のディスプレイに表示させる。
In step S18, the
次に、コンピュータを、本実施形態の対話装置10として機能させるための対話プログラムについて説明する。図11は、対話プログラムP1の構成を示す図である。
Next, a dialogue program for causing a computer to function as the
対話プログラムP1は、対話装置10における対話処理を統括的に制御するメインモジュールm10、外部システム情報取得モジュールm11、ユーザ情報取得モジュールm12、デバイス抽出モジュールm13、ユーザ属性取得モジュールm14、フレーズ抽出モジュールm15、生成モジュールm16、提示モジュールm17、発話受付モジュールm18及び制御指示送信モジュールm19を含む。外部システム情報取得モジュールm11は、設定情報取得モジュールm11A及びデバイス状態取得モジュールm11Bを含む。
The dialogue program P1 includes a main module m10 that comprehensively controls dialogue processing in the
そして、各モジュールm11~m19,m11A,m11Bにより、対話装置10における外部システム情報取得部11、ユーザ情報取得部12、デバイス抽出部13、ユーザ属性取得部14、フレーズ抽出部15、生成部16、提示部17、発話受付部18及び制御指示送信部19並びに設定情報取得部11A及びデバイス状態取得部11Bのための各機能が実現される。なお、対話プログラムP1は、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図11に示されるように、記録媒体M1に記憶される態様であってもよい。
Then, the modules m11 to m19, m11A, and m11B control the external system information acquisition unit 11, user
以上説明した本実施形態の対話装置10では、デバイスの動作状態が取得され、取得されたデバイスの動作状態に関連付けられた指示フレーズに基づいて発話文が生成されるので、デバイスの動作状態に応じた好適な発話文をユーザに提示できる。ユーザは、提示された発話文を発話することにより、デバイスの動作状態に応じて適切な制御を実施できるので、利便性の向上が図られる。また、ユーザに対して提示される発話文が、デバイス状態情報に基づいて限定されることとなるので、発話文の提示にかかる処理負荷及び通信量が削減される。
In the
また、本実施形態の対話装置10では、ユーザ発話の発話元のユーザの、デバイスの制御状態に関する好みを示す属性情報が取得され、当該ユーザの好みに関連付けられた指示フレーズが抽出されるので、ユーザにとって好適なデバイスの制御が実施される可能性が高い発話文を提示できる。このように提示された発話文をユーザが発話することにより、ユーザが好む動作状態にデバイスが制御されるので、利便性の向上が図られる。また、ユーザに対して提示される発話文が、ユーザの属性情報に基づいて限定されることとなるので、発話文の提示にかかる処理負荷及び通信量が削減される。
Furthermore, in the
また、別の形態に係る対話装置では、デバイスの動作状態を示すデバイス状態情報を取得するデバイス状態取得部、をさらに備え、語彙情報は、指示フレーズにデバイスの動作状態をさらに関連付けており、フレーズ抽出部は、語彙情報を参照して、デバイス状態情報に示されるデバイスの動作状態及び属性情報により示されるユーザの好みの制御状態に関連付けられている一以上の指示フレーズを抽出することとしてもよい。 Further, an interaction device according to another embodiment further includes a device status acquisition unit that acquires device status information indicating an operational status of the device, and the vocabulary information further associates the operational status of the device with the instruction phrase, and the vocabulary information further associates the operational status of the device with the instruction phrase. The extraction unit may refer to the vocabulary information to extract one or more instruction phrases associated with the user's preferred control state indicated by the device operating state and attribute information indicated by the device state information. .
上記形態によれば、ユーザの属性情報に加えてデバイスの動作状態が取得され、属性情報に示されるユーザの好み及びデバイスの動作状態に関連付けられた指示フレーズに基づいて発話文が生成されるので、好適な発話文をユーザに提示できる。 According to the above embodiment, the operating state of the device is acquired in addition to the user's attribute information, and the utterance is generated based on the user's preferences shown in the attribute information and the instruction phrase associated with the operating state of the device. , suitable utterances can be presented to the user.
また、別の形態に係る対話装置では、デバイス状態情報は、デバイスが動作中または非動作中であることを示す情報を含み、フレーズ抽出部は、デバイスが動作中である場合には、デバイスを非動作状態に制御するための指示フレーズを抽出し、デバイスが非動作中である場合には、デバイスを動作状態に制御するための指示フレーズを抽出することとしてもよい。 In another aspect of the dialog device, the device status information includes information indicating whether the device is in operation or not, and the phrase extraction unit is configured to detect whether the device is in operation or not. An instruction phrase for controlling the device to be in an inactive state may be extracted, and when the device is in an inactive state, an instruction phrase for controlling the device to be in an operating state may be extracted.
上記形態によれば、デバイスが動作中である場合にデバイスを非動作状態に制御するための発話文がユーザに提示され、デバイスが非動作中である場合にデバイスを動作状態に制御するための発話文がユーザに提示される。即ち、デバイスの現在の動作状態とは異なる動作状態に制御するための発話文がユーザに提示される。従って、対象のデバイスに対して、ユーザが所望する可能性が高い制御を実現するための発話文を提示することが可能となる。 According to the above embodiment, the user is presented with an utterance for controlling the device to the non-operating state when the device is in operation, and a statement for controlling the device to the operating state when the device is in the non-operating state is presented to the user. The utterance is presented to the user. That is, an utterance for controlling the device to a different operating state from the current operating state is presented to the user. Therefore, it is possible to present an utterance for realizing control that is likely to be desired by the user to the target device.
また、別の形態に係る対話装置では、デバイス状態情報は、デバイスの動作に関する所定のパラメータを含み、フレーズ抽出部は、デバイス状態情報に含まれるパラメータが第1の範囲に含まれる場合には、デバイスのパラメータを、第1の範囲とは異なる第2の範囲に制御するための指示フレーズを抽出することとしてもよい。 Further, in the dialog device according to another embodiment, the device status information includes a predetermined parameter regarding the operation of the device, and the phrase extraction unit is configured to: An instruction phrase for controlling a parameter of the device to a second range different from the first range may be extracted.
上記形態によれば、デバイスの動作に関する所定のパラメータが第1の範囲に含まれる場合には、当該パラメータを第2の範囲に制御するための発話文がユーザに提示される。即ち、現在のパラメータ値とは異なるパラメータ値によりデバイスを制御するための発話文がユーザに提示される。従って、対象のデバイスに対して、ユーザが所望する可能性が高い制御を実現するための発話文を提示することが可能となる。 According to the above aspect, when a predetermined parameter regarding the operation of the device is included in the first range, an utterance for controlling the parameter to the second range is presented to the user. That is, an utterance for controlling the device using parameter values different from the current parameter values is presented to the user. Therefore, it is possible to present an utterance for realizing control that is likely to be desired by the user to the target device.
また、別の形態に係る対話装置では、各デバイスと、当該デバイスのニックネームとを関連付けている設定情報を取得する設定情報取得部、をさらに備え、生成部は、フレーズ抽出部により抽出された指示フレーズ及び指示フレーズの制御対象のデバイスのニックネームに基づいて、発話文を生成することとしてもよい。 Further, an interaction device according to another embodiment further includes a setting information acquisition unit that acquires setting information associating each device with a nickname of the device, and the generation unit includes instructions extracted by the phrase extraction unit. The utterance may be generated based on the phrase and the nickname of the device to be controlled by the instruction phrase.
上記形態によれば、制御対象のデバイスに対して設定されたニックネームを含む発話文が生成される。これにより、ユーザにとって、提示された発話文における制御対象のデバイスの認識が容易となる。 According to the above embodiment, an uttered sentence including a nickname set for a device to be controlled is generated. This makes it easier for the user to recognize the device to be controlled in the presented utterance.
また、別の形態に係る対話装置では、提示部は、発話文を示すテキストをユーザの端末に表示させることとしてもよい。 Further, in another type of dialogue device, the presentation unit may display text indicating the utterance on the user's terminal.
上記形態によれば、生成された発話文を示すテキストがユーザの端末において提示されるので、ユーザはその発話文を発することができる。 According to the above embodiment, the text indicating the generated utterance is presented on the user's terminal, so the user can utter the utterance.
また、別の形態に係る対話装置では、提示部は、発話文を示すテキストが関連付けられ指示操作可能な操作オブジェクトをユーザの端末に表示させ、対話装置は、ユーザの端末において操作オブジェクトが操作された場合に、テキストの内容の音声からなるユーザ発話を受け付けた場合と同様のデバイスの制御情報を生成することとしてもよい。 Further, in another aspect of the dialog device, the presentation unit displays on the user's terminal an operation object that is associated with text indicating an uttered sentence and can be operated as an instruction; In this case, the same device control information as in the case where a user's utterance consisting of audio of text content is received may be generated.
上記形態によれば、生成された発話文を示すテキストが関連付けられた操作オブジェクトがユーザ端末において表示され、その操作オブジェクトが操作されることにより、当該発話文の内容が音声により発せられた場合と同様の制御情報が生成されるので、ユーザは所望する制御の指示を容易に実施できる。 According to the above embodiment, an operation object to which text indicating a generated utterance is associated is displayed on the user terminal, and when the operation object is operated, the content of the utterance is uttered by voice. Since similar control information is generated, the user can easily carry out desired control instructions.
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although this embodiment has been described in detail above, it is clear for those skilled in the art that this embodiment is not limited to the embodiment described in this specification. This embodiment can be implemented as modifications and changes without departing from the spirit and scope of the present invention as defined by the claims. Therefore, the description in this specification is for the purpose of illustrative explanation and does not have any restrictive meaning with respect to this embodiment.
本開示で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect/embodiment described in this disclosure is applicable to LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA ( (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (registered trademark), other suitable systems, and/or next-generation systems expanded based on these.
本開示で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be changed as long as there is no contradiction. For example, the methods described herein present elements of the various steps in an exemplary order and are not limited to the particular order presented.
情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information etc. can be output from an upper layer (or lower layer) to a lower layer (or upper layer). It may be input/output via multiple network nodes.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input/output information may be stored in a specific location (eg, memory) or may be managed in a management table. Information etc. to be input/output may be overwritten, updated, or additionally written. The output information etc. may be deleted. The input information etc. may be transmitted to other devices.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 Judgment may be made using a value expressed by 1 bit (0 or 1), a truth value (Boolean: true or false), or a comparison of numerical values (for example, a predetermined value). (comparison with a value).
本開示で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in this disclosure may be used alone, in combination, or may be switched and used in accordance with execution. In addition, notification of prescribed information (for example, notification of "X") is not limited to being done explicitly, but may also be done implicitly (for example, not notifying the prescribed information). Good too.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software includes instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name. , should be broadly construed to mean an application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, function, etc.
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Additionally, software, instructions, etc. may be sent and received via a transmission medium. For example, if the software uses wired technologies such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and/or wireless technologies such as infrared, radio and microwave to When transmitted from a remote source, these wired and/or wireless technologies are included within the definition of transmission medium.
本開示で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc., which may be referred to throughout the above description, may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may also be represented by a combination of
なお、本開示で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 Note that terms explained in this disclosure and/or terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.
本開示で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 As used in this disclosure, the terms "system" and "network" are used interchangeably.
また、本開示で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 Further, the information, parameters, etc. described in this disclosure may be expressed as absolute values, relative values from a predetermined value, or other corresponding information.
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 As used in this disclosure, the terms "determining" and "determining" may encompass a wide variety of operations. "Judgment" and "decision" include, for example, judging, calculating, computing, processing, deriving, investigating, looking up, search, and inquiry. (e.g., searching in a table, database, or other data structure), and regarding an ascertaining as a "judgment" or "decision." In addition, "judgment" and "decision" refer to receiving (e.g., receiving information), transmitting (e.g., sending information), input, output, and access. (accessing) (e.g., accessing data in memory) may include considering something as a "judgment" or "decision." In addition, "judgment" and "decision" refer to resolving, selecting, choosing, establishing, comparing, etc. as "judgment" and "decision". may be included. In other words, "judgment" and "decision" may include regarding some action as having been "judged" or "determined." Further, "judgment (decision)" may be read as "assuming", "expecting", "considering", etc.
本開示で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based solely on" unless expressly stated otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
本開示で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Where this disclosure uses the terms "first," "second," etc., any reference to the elements does not generally limit the amount or order of those elements. These designations may be used herein as a convenient way of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements may be employed therein or that the first element must precede the second element in any way.
「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 To the extent that the words "include," "including," and variations thereof are used in this specification or in the claims, these terms are synonymous with the term "comprising." is intended to be comprehensive. Furthermore, the term "or" as used in this specification or in the claims is not intended to be exclusive or.
本開示において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。 In this disclosure, a plurality of devices is also included unless it is clear from the context or technology that only one device exists.
本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 Throughout this disclosure, the plural is intended to be included unless the context clearly dictates otherwise.
1…対話システム、10…対話装置、11…外部システム情報取得部、11A…設定情報取得部、11B…デバイス状態取得部、12…ユーザ情報取得部、13…デバイス抽出部、14…ユーザ属性取得部、15…フレーズ抽出部、16…生成部、17…提示部、18…発話受付部、19…制御指示送信部、20…語彙情報記憶部、21…ユーザ属性記憶部、30…外部システム、31…設定情報記憶部、32…デバイス状態管理部、50…端末、M1…記録媒体、m10…メインモジュール、m11…外部システム情報取得モジュール、m11A…設定情報取得モジュール、m11B…デバイス状態取得モジュール、m12…ユーザ情報取得モジュール、m13…デバイス抽出モジュール、m14…ユーザ属性取得モジュール、m15…フレーズ抽出モジュール、m16…生成モジュール、m17…提示モジュール、m18…発話受付モジュール、m19…制御指示送信モジュール、P1…対話プログラム。
DESCRIPTION OF
Claims (2)
前記デバイスの動作状態を示すデバイス状態情報を取得するデバイス状態取得部と、
前記デバイスの制御指示を表し少なくとも一以上の語句または文を含む指示フレーズと、当該デバイスの動作状態と、を関連付けている語彙情報を参照して、前記デバイス状態情報に示されるデバイスの動作状態に関連付けられている一以上の指示フレーズを抽出するフレーズ抽出部と、
前記フレーズ抽出部により抽出された前記指示フレーズに基づいて、前記デバイスを制御するための発話文を生成する生成部と、
前記生成部により生成された前記発話文を前記ユーザに対して提示する提示部と、を備え、
前記デバイス状態情報は、前記デバイスの動作に関する所定のパラメータを含み、
前記フレーズ抽出部は、前記デバイス状態情報に含まれる前記パラメータが第1の範囲に含まれる場合には、前記デバイスのパラメータを、前記第1の範囲とは異なる第2の範囲に制御するための指示フレーズを抽出する、
対話装置。 An interaction device that receives user utterances consisting of voice or text for generating control information for controlling a device,
a device status acquisition unit that acquires device status information indicating the operating status of the device;
The operating state of the device indicated in the device state information is determined by referring to vocabulary information that associates an instruction phrase representing a control instruction for the device and including at least one word or sentence and the operating state of the device. a phrase extraction unit that extracts one or more associated instruction phrases;
a generation unit that generates an utterance for controlling the device based on the instruction phrase extracted by the phrase extraction unit;
a presentation unit that presents the utterance generated by the generation unit to the user ,
The device state information includes predetermined parameters regarding the operation of the device,
When the parameter included in the device state information is included in a first range, the phrase extracting unit is configured to control the parameter of the device to a second range different from the first range. Extract instruction phrases,
Dialogue device.
前記ユーザ発話の発話元のユーザを識別するユーザ識別情報を取得するユーザ情報取得部と、
前記ユーザ情報取得部により取得されたユーザ識別情報により識別されるユーザの属性情報であって、前記デバイスの制御状態に関するユーザの好みを示す情報を含む、属性情報を取得するユーザ属性取得部と、
前記デバイスの動作状態を示すデバイス状態情報を取得するデバイス状態取得部と、
前記デバイスの制御指示を表し少なくとも一以上の語句または文を含む指示フレーズと、当該デバイスに関するユーザの好みの制御状態と、を関連付けている語彙情報を参照して、前記属性情報により示される前記ユーザの好みの制御状態に関連付けられている一以上の指示フレーズを抽出するフレーズ抽出部と、
前記フレーズ抽出部により抽出された前記指示フレーズに基づいて、前記デバイスを制御するための発話文を生成する生成部と、
前記生成部により生成された前記発話文を前記ユーザに対して提示する提示部と、を備え、
前記語彙情報は、前記指示フレーズに前記デバイスの動作状態をさらに関連付けており、
前記フレーズ抽出部は、前記語彙情報を参照して、前記デバイス状態情報に示されるデバイスの動作状態及び前記属性情報により示される前記ユーザの好みの制御状態に関連付けられている一以上の前記指示フレーズを抽出し、
前記デバイス状態情報は、前記デバイスの動作に関する所定のパラメータを含み、
前記フレーズ抽出部は、前記デバイス状態情報に含まれる前記パラメータが第1の範囲に含まれる場合には、前記デバイスのパラメータを、前記第1の範囲とは異なる第2の範囲に制御するための指示フレーズを抽出する、
対話装置。
An interaction device that receives user utterances consisting of voice or text for generating control information for controlling a device,
a user information acquisition unit that acquires user identification information that identifies a user who has uttered the user utterance;
a user attribute acquisition unit that acquires attribute information of a user identified by the user identification information acquired by the user information acquisition unit, the attribute information including information indicating the user's preference regarding the control state of the device;
a device status acquisition unit that acquires device status information indicating the operating status of the device;
The user indicated by the attribute information refers to vocabulary information that associates an instruction phrase representing a control instruction for the device and including at least one word or sentence and the user's preferred control state regarding the device. a phrase extractor that extracts one or more instruction phrases associated with the preferred control state of the
a generation unit that generates an utterance for controlling the device based on the instruction phrase extracted by the phrase extraction unit;
a presentation unit that presents the utterance generated by the generation unit to the user ,
the lexical information further associates an operational state of the device with the instruction phrase;
The phrase extraction unit refers to the vocabulary information and extracts one or more of the instruction phrases that are associated with the operating state of the device indicated by the device state information and the control state preferred by the user indicated by the attribute information. extract,
The device state information includes predetermined parameters regarding the operation of the device,
When the parameter included in the device status information is included in a first range, the phrase extraction unit is configured to control the parameter of the device to a second range different from the first range. Extract instruction phrases,
Dialogue device.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018219219 | 2018-11-22 | ||
JP2018219219 | 2018-11-22 | ||
PCT/JP2019/040534 WO2020105317A1 (en) | 2018-11-22 | 2019-10-15 | Dialogue device and dialogue program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020105317A1 JPWO2020105317A1 (en) | 2021-10-21 |
JP7429194B2 true JP7429194B2 (en) | 2024-02-07 |
Family
ID=70774245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020558161A Active JP7429194B2 (en) | 2018-11-22 | 2019-10-15 | Dialogue device and dialogue program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7429194B2 (en) |
WO (1) | WO2020105317A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270924A (en) * | 2020-09-18 | 2021-01-26 | 青岛海尔空调器有限总公司 | Voice control method and device of air conditioner |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109587A (en) | 2007-10-26 | 2009-05-21 | Panasonic Electric Works Co Ltd | Voice recognition control device |
WO2018021237A1 (en) | 2016-07-28 | 2018-02-01 | 国立研究開発法人情報通信研究機構 | Speech dialogue device, speech dialogue method, and recording medium |
WO2018051461A1 (en) | 2016-09-15 | 2018-03-22 | 三菱電機株式会社 | Equipment control device, equipment control system, equipment control method, and program |
JP2018531404A (en) | 2015-10-05 | 2018-10-25 | サバント システムズ エルエルシーSavant Systems LLC | Proposal of history-based key phrase for voice control of home automation system |
-
2019
- 2019-10-15 WO PCT/JP2019/040534 patent/WO2020105317A1/en active Application Filing
- 2019-10-15 JP JP2020558161A patent/JP7429194B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109587A (en) | 2007-10-26 | 2009-05-21 | Panasonic Electric Works Co Ltd | Voice recognition control device |
JP2018531404A (en) | 2015-10-05 | 2018-10-25 | サバント システムズ エルエルシーSavant Systems LLC | Proposal of history-based key phrase for voice control of home automation system |
WO2018021237A1 (en) | 2016-07-28 | 2018-02-01 | 国立研究開発法人情報通信研究機構 | Speech dialogue device, speech dialogue method, and recording medium |
WO2018051461A1 (en) | 2016-09-15 | 2018-03-22 | 三菱電機株式会社 | Equipment control device, equipment control system, equipment control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020105317A1 (en) | 2021-10-21 |
WO2020105317A1 (en) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210326103A1 (en) | Grouping Devices for Voice Control | |
KR102261552B1 (en) | Providing Method For Voice Command and Electronic Device supporting the same | |
EP3588966A2 (en) | Display apparatus and method of controlling a display apparatus in a voice recognition system | |
KR102339657B1 (en) | Electronic device and control method thereof | |
KR102215579B1 (en) | Interactive system, display apparatus and controlling method thereof | |
US20190035398A1 (en) | Apparatus, method and system for voice recognition | |
KR102411619B1 (en) | Electronic apparatus and the controlling method thereof | |
US11721343B2 (en) | Hub device, multi-device system including the hub device and plurality of devices, and method of operating the same | |
KR20200048701A (en) | Electronic apparatus for sharing customized voice command and thereof control method | |
JP7429194B2 (en) | Dialogue device and dialogue program | |
US11373634B2 (en) | Electronic device for recognizing abbreviated content name and control method thereof | |
JP7429193B2 (en) | Dialogue device and dialogue program | |
US20220122600A1 (en) | Information processing device and information processing method | |
WO2019193796A1 (en) | Interaction server | |
KR20200042627A (en) | Electronic apparatus and controlling method thereof | |
US10235364B2 (en) | Interpretation distributing device, control device, terminal device, interpretation distributing method, control method, information processing method, and program | |
WO2019220791A1 (en) | Dialogue device | |
KR102455067B1 (en) | Electronic apparatus and control method thereof | |
KR20200127823A (en) | The hub device, multi device system comprising the hub device and a plurality of devices and method operating the same | |
WO2022070792A1 (en) | Parameter setting system | |
KR102124396B1 (en) | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof | |
KR102045539B1 (en) | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof | |
JP2022077779A (en) | Interactive scenario generation device | |
WO2020195022A1 (en) | Voice dialogue system, model generation device, barge-in speech determination model, and voice dialogue program | |
US20200357414A1 (en) | Display apparatus and method for controlling thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7429194 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |