JP2017138698A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2017138698A
JP2017138698A JP2016017747A JP2016017747A JP2017138698A JP 2017138698 A JP2017138698 A JP 2017138698A JP 2016017747 A JP2016017747 A JP 2016017747A JP 2016017747 A JP2016017747 A JP 2016017747A JP 2017138698 A JP2017138698 A JP 2017138698A
Authority
JP
Japan
Prior art keywords
command
information processing
processing apparatus
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016017747A
Other languages
Japanese (ja)
Inventor
昌裕 森田
Masahiro Morita
昌裕 森田
正一 土居
Shoichi Doi
正一 土居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016017747A priority Critical patent/JP2017138698A/en
Priority to PCT/JP2016/081360 priority patent/WO2017134868A1/en
Publication of JP2017138698A publication Critical patent/JP2017138698A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of improving the flexibility of an input for executing a command.SOLUTION: In an information processing device, a control part 120 includes a first command acquisition part 124 for acquiring a first command corresponding to the position of an operation body, a second command acquisition part 125 for acquiring a second command corresponding to a voice recognition processing result obtained by voice recognition processing to voice information, and an execution control part 127 for controlling execution by a first control object device of the first command in the case that the first command is acquired, and controlling execution by a second control object device of the second command in the case that the second command is acquired.SELECTED DRAWING: Figure 3

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。   The present disclosure relates to an information processing apparatus, an information processing method, and a program.

近年、2種類の入力を用いて所望の動作を実行する情報処理装置が存在する(例えば、特許文献1参照)。かかる情報処理装置においては、2種類の入力として、音情報の入力と操作体の位置の入力とが用いられる。そして、かかる情報処理装置においては、音情報から音声が認識され、画像から操作体の位置が認識され、音声と操作体の位置との組み合わせにより、制御対象機器に所望の動作を実行させるためのコマンドが生成される。   In recent years, there is an information processing apparatus that performs a desired operation using two types of inputs (see, for example, Patent Document 1). In such an information processing apparatus, input of sound information and input of the position of the operating tool are used as two types of inputs. In such an information processing apparatus, the sound is recognized from the sound information, the position of the operating body is recognized from the image, and the control target device is caused to execute a desired operation by a combination of the sound and the position of the operating body. A command is generated.

特開2012−103840号公報JP 2012-103840 A

しかし、音情報の入力によって実行されるのが適しているコマンドもあれば、操作体の位置の入力によって実行されるのが適しているコマンドもある。そこで、コマンドを実行させるための入力の柔軟性を向上させることが可能な技術が提供されることが望まれる。   However, some commands are suitable to be executed by inputting sound information, and others are suitable to be executed by inputting the position of the operating body. Therefore, it is desired to provide a technique capable of improving the flexibility of input for executing a command.

本開示によれば、操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、を備える、情報処理装置が提供される。   According to the present disclosure, the first command acquisition unit that acquires the first command corresponding to the position of the operating tool, and the second command that corresponds to the voice recognition processing result obtained by the voice recognition processing for the sound information. When the second command acquisition unit to acquire and the first command are acquired, the execution of the first command by the first device to be controlled is controlled, and when the second command is acquired, And an execution control unit that controls execution of the second command by a second device to be controlled.

本開示によれば、コンピュータにより操作体の位置に応じた第1のコマンドを取得することと、音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得することと、前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御することと、を含む、情報処理方法が提供される。   According to the present disclosure, the first command corresponding to the position of the operating tool is acquired by the computer, and the second command corresponding to the voice recognition processing result obtained by the voice recognition processing for the sound information is acquired. When the first command is acquired, the execution of the first command by the first device to be controlled is controlled, and when the second command is acquired, the second of the second command is controlled. An information processing method is provided, including controlling execution by a device to be controlled.

本開示によれば、コンピュータを、操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。   According to the present disclosure, the computer uses the first command acquisition unit that acquires the first command according to the position of the operating tool, and the second according to the voice recognition processing result obtained by the voice recognition processing for the sound information. A second command acquisition unit for acquiring the first command, and when the first command is acquired, execution of the first command by the first control target device is controlled, and the second command is acquired. In this case, there is provided a program for causing an information processing apparatus to include an execution control unit that controls execution of the second command by the second control target device.

以上説明したように本開示によれば、コマンドを実行させるための入力の柔軟性を向上させることが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。   As described above, according to the present disclosure, a technique capable of improving the flexibility of input for executing a command is provided. Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.

本開示の一実施形態に係る通信システムの構成例を示す図である。2 is a diagram illustrating a configuration example of a communication system according to an embodiment of the present disclosure. FIG. 同実施形態に係る通信システムの機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the communication system which concerns on the same embodiment. 制御部の詳細な機能構成例を示すブロック図である。It is a block diagram which shows the detailed functional structural example of a control part. テレビジョン装置の電源を入れる動作の例を説明するための図である。FIG. 25 is a diagram for describing an example of an operation for turning on the television apparatus. テレビジョン装置の電源を入れる動作の例を説明するための図である。FIG. 25 is a diagram for describing an example of an operation for turning on the television apparatus. レコーダに記録されている番組を再生する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which reproduces | regenerates the program currently recorded on the recorder. レコーダに記録されている番組を再生する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which reproduces | regenerates the program currently recorded on the recorder. レコーダに記録されている番組を再生する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which reproduces | regenerates the program currently recorded on the recorder. レコーダに記録されている番組を再生する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which reproduces | regenerates the program currently recorded on the recorder. レコーダに記録されている番組を再生する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which reproduces | regenerates the program currently recorded on the recorder. 空調機を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls an air conditioner. 空調機を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls an air conditioner. 空調機を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls an air conditioner. 空調機を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls an air conditioner. 制御対象機器を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls a control object apparatus. 制御対象機器を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls a control object apparatus. 制御対象機器を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls a control object apparatus. 天気予報の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a weather forecast. 天気予報の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a weather forecast. 天気予報の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a weather forecast. 天気予報の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a weather forecast. 天気予報の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a weather forecast. 天気予報の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a weather forecast. 金閣寺の写真の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of the photograph of Kinkakuji. 金閣寺の写真の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of the photograph of Kinkakuji. 金閣寺の写真の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of the photograph of Kinkakuji. 予定表の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a schedule. 予定表の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a schedule. 予定表の表示を制御する動作の例を説明するための図である。It is a figure for demonstrating the example of the operation | movement which controls the display of a schedule. 情報処理装置の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of information processing apparatus. 情報処理装置の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of information processing apparatus. 情報処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of information processing apparatus.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different numerals after the same reference numerals. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

なお、説明は以下の順序で行うものとする。
1.本開示の実施形態
1.1.システム構成例
1.2.機能構成例
1.3.通信システムの機能詳細
1.4.ハードウェア構成例
2.むすび
The description will be made in the following order.
1. Embodiment of the present disclosure 1.1. System configuration example 1.2. Functional configuration example 1.3. Functional details of communication system 1.4. 1. Hardware configuration example Conclusion

<1.本開示の実施形態>
[1.1.システム構成例]
まず、図面を参照しながら本開示の一実施形態に係る通信システムの構成例について説明する。図1は、本開示の一実施形態に係る通信システムの構成例を示す図である。図1に示したように、本実施形態に係る通信システムは、情報処理装置10および制御対象機器20(制御対象機器20−1〜20−4)を備える。情報処理装置10は、音出力部111、集音部151、撮像部112、距離検出部113、表示部161(第1の表示部161−1および第2の表示部161−2)を有している。
<1. Embodiment of the present disclosure>
[1.1. System configuration example]
First, a configuration example of a communication system according to an embodiment of the present disclosure will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of a communication system according to an embodiment of the present disclosure. As illustrated in FIG. 1, the communication system according to the present embodiment includes an information processing apparatus 10 and a control target device 20 (control target devices 20-1 to 20-4). The information processing apparatus 10 includes a sound output unit 111, a sound collection unit 151, an imaging unit 112, a distance detection unit 113, and a display unit 161 (a first display unit 161-1 and a second display unit 161-2). ing.

情報処理装置10と制御対象機器20とは、通信ネットワークを介して通信を行うことが可能である。また、情報処理装置10において、音出力部111、集音部151、撮像部112、距離検出部113、表示部161(第1の表示部161−1および第2の表示部161−2)は、情報処理装置10における同一の面上に設けられているが、これらが設けられる位置は限定されない(例えば、これらは情報処理装置10における異なる面上に設けられていてもよい)。   The information processing apparatus 10 and the control target device 20 can communicate with each other via a communication network. In the information processing apparatus 10, the sound output unit 111, the sound collection unit 151, the imaging unit 112, the distance detection unit 113, and the display unit 161 (the first display unit 161-1 and the second display unit 161-2) Although provided on the same surface in the information processing device 10, the positions where these are provided are not limited (for example, they may be provided on different surfaces in the information processing device 10).

なお、図1には、制御対象機器20の例として、制御対象機器(テレビジョン装置)20−1、制御対象機器(レコーダ)20−2、制御対象機器(空調機)20−3および制御対象機器(コーヒーメーカ)20−4が示されているが、制御対象機器20の種類および数は限定されない。例えば、制御対象機器20は、外部からコマンドを受け付けて、そのコマンドを実行することが可能な機器であればよい。   In FIG. 1, as an example of the control target device 20, a control target device (television device) 20-1, a control target device (recorder) 20-2, a control target device (air conditioner) 20-3, and a control target Although the device (coffee maker) 20-4 is shown, the type and number of the control target devices 20 are not limited. For example, the control target device 20 may be a device that can receive a command from the outside and execute the command.

また、図1には、表示部161の例として、2つのプロジェクタが示されているが、表示部161の種類および数も限定されない。例えば、表示部161は、ユーザ80に視認可能な表示を行うことが可能なディスプレイであればよい。また、本実施形態においては、第1の表示部161−1が比較的高い位置(例えば、壁、テレビジョン装置など)に表示を行うのに対し、第2の表示部161−2が比較的低い位置(例えば、ユーザの手元など)に表示を行う例を説明するが、表示部161が表示を行う位置も限定されない。   In FIG. 1, two projectors are shown as examples of the display unit 161, but the type and number of the display units 161 are not limited. For example, the display unit 161 may be a display capable of performing display visible to the user 80. In the present embodiment, the first display unit 161-1 performs display on a relatively high position (for example, a wall, a television device, etc.), whereas the second display unit 161-2 has a relatively high level. Although an example in which display is performed at a low position (for example, a user's hand) will be described, the position at which the display unit 161 performs display is not limited.

また、以下の説明において、音声(voiceまたはspeech)と音(sound)とは区別して用いられる。すなわち、音声(voiceまたはspeech)は、集音部151によって集音された音のうち、主にユーザ80の発話を示すのに対し、音(sound)は、ユーザ80の発話の他、物音などを含む。   Further, in the following description, voice (voice or speech) and sound are used separately. That is, the voice (voice or speech) mainly indicates the utterance of the user 80 among the sounds collected by the sound collecting unit 151, whereas the sound (sound) includes the utterance of the user 80, a sound, etc. including.

以上、本実施形態に係る通信システムの構成例について説明した。   The configuration example of the communication system according to the present embodiment has been described above.

[1.2.機能構成例]
続いて、本実施形態に係る通信システムの機能構成例について説明する。図2は、本実施形態に係る通信システムの機能構成例を示すブロック図である。図2に示したように、通信システムは、情報処理装置10、制御対象機器20、外部ネットワーク30および第3の記憶部330を備える。
[1.2. Functional configuration example]
Subsequently, a functional configuration example of the communication system according to the present embodiment will be described. FIG. 2 is a block diagram illustrating a functional configuration example of the communication system according to the present embodiment. As illustrated in FIG. 2, the communication system includes the information processing apparatus 10, the control target device 20, the external network 30, and a third storage unit 330.

外部ネットワーク30は、例えば、インターネットにより構成される。第3の記憶部330は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。制御対象機器20は、上記したように、空調機、テレビジョン装置、レコーダおよびコーヒーメーカであってもよい。また、図2に示すように、制御対象機器20は、第2の記憶部230を備えていてよい。第2の記憶部230は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。   The external network 30 is configured by the Internet, for example. The third storage unit 330 includes a magnetic storage device, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like. As described above, the control target device 20 may be an air conditioner, a television device, a recorder, and a coffee maker. Further, as illustrated in FIG. 2, the control target device 20 may include a second storage unit 230. The second storage unit 230 includes a magnetic storage device, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.

情報処理装置10は、上記した音出力部111、集音部151、撮像部112、距離検出部113、表示部161(第1の表示部161−1および第2の表示部161−2)の他、通信部140、制御部120および第1の記憶部130を備える。   The information processing apparatus 10 includes the sound output unit 111, the sound collection unit 151, the imaging unit 112, the distance detection unit 113, and the display unit 161 (the first display unit 161-1 and the second display unit 161-2). In addition, the communication unit 140, the control unit 120, and the first storage unit 130 are provided.

音出力部111は、音を出力する機能を有する。例えば、音出力部111は、スピーカを含んでおり、スピーカによって音を出力する。音出力部111に含まれるスピーカの数は1以上であれば特に限定されない。そして、音出力部111に含まれる1以上のスピーカそれぞれが設けられる位置も特に限定されない。なお、音出力部111は、音情報を出力する機能を有すれば、スピーカ以外の形態の音出力装置を含んでもよい。   The sound output unit 111 has a function of outputting sound. For example, the sound output unit 111 includes a speaker and outputs sound through the speaker. The number of speakers included in the sound output unit 111 is not particularly limited as long as it is one or more. And the position where each of the one or more speakers included in the sound output unit 111 is provided is not particularly limited. Note that the sound output unit 111 may include a sound output device other than a speaker as long as it has a function of outputting sound information.

集音部151は、集音によって音情報を得る機能を有する。例えば、集音部151は、マイクロフォンを含んでおり、マイクロフォンによって音情報を集音する。集音部151に含まれるマイクロフォンの数は1以上であれば特に限定されない。そして、集音部151に含まれる1以上のマイクロフォンそれぞれが設けられる位置も特に限定されない。なお、集音部151は、音情報を集音する機能を有すれば、マイクロフォン以外の形態の集音装置を含んでもよい。   The sound collection unit 151 has a function of obtaining sound information by collecting sound. For example, the sound collection unit 151 includes a microphone and collects sound information using the microphone. The number of microphones included in the sound collection unit 151 is not particularly limited as long as it is one or more. And the position where each of the one or more microphones included in the sound collection unit 151 is provided is not particularly limited. Note that the sound collection unit 151 may include a sound collection device other than a microphone as long as it has a function of collecting sound information.

撮像部112は、撮像により画像を入力する機能を有する。例えば、撮像部112はカメラを含んでおり、カメラによって撮像された画像を入力する。撮像部112に含まれるカメラの数は1以上であれば特に限定されない。そして、撮像部112に含まれる1以上のカメラそれぞれが設けられる位置も特に限定されない。また、1以上のカメラには、単眼カメラが含まれてもよいし、ステレオカメラが含まれてもよい。   The imaging unit 112 has a function of inputting an image by imaging. For example, the imaging unit 112 includes a camera and inputs an image captured by the camera. The number of cameras included in the imaging unit 112 is not particularly limited as long as it is one or more. Further, the position where each of the one or more cameras included in the imaging unit 112 is provided is not particularly limited. The one or more cameras may include a monocular camera or a stereo camera.

距離検出部113は、ユーザ80までの距離を検出する機能を有する。例えば、距離検出部113は測距センサを含んでおり、測距センサによって検出されたユーザ80までの距離を取得する。測距センサが設けられる位置は特に限定されない。また、測距センサの種類は特に限定されない。例えば、距離センサは、赤外線距離センサであってもよいし、超音波距離センサであってもよい。   The distance detection unit 113 has a function of detecting the distance to the user 80. For example, the distance detection unit 113 includes a distance measuring sensor, and acquires the distance to the user 80 detected by the distance measuring sensor. The position where the distance measuring sensor is provided is not particularly limited. Further, the type of distance measuring sensor is not particularly limited. For example, the distance sensor may be an infrared distance sensor or an ultrasonic distance sensor.

通信部140は、外部ネットワーク30を介して第3の記憶部330からのデータの取得および第3の記憶部330へのデータの書き込みを行う機能を有する。例えば、通信部140は、通信インターフェースにより構成される。なお、通信部140は、第3の記憶部330の他に、第3の記憶部330とは異なる装置との間で外部ネットワーク30を介して通信が可能であってもよい。   The communication unit 140 has a function of acquiring data from the third storage unit 330 and writing data to the third storage unit 330 via the external network 30. For example, the communication unit 140 is configured by a communication interface. Note that the communication unit 140 may be able to communicate with an apparatus different from the third storage unit 330 via the external network 30 in addition to the third storage unit 330.

第1の記憶部130は、制御部120によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする。また、第1の記憶部130は、制御部120による演算のためにデータを一時的に記憶する。第1の記憶部130は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。   The first storage unit 130 stores a program executed by the control unit 120 and stores data necessary for executing the program. The first storage unit 130 temporarily stores data for calculation by the control unit 120. The first storage unit 130 includes a magnetic storage device, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.

表示部161(第1の表示部161−1および第2の表示部161−2)は、画面を表示する機能を有する。例えば、表示部161(第1の表示部161−1および第2の表示部161−2)は、図1に示したようにプロジェクタであってもよいし、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよい。しかし、表示部161(第1の表示部161−1および第2の表示部161−2)は、画面を表示する機能を有すれば、他の形態のディスプレイであってもよい。   The display unit 161 (the first display unit 161-1 and the second display unit 161-2) has a function of displaying a screen. For example, the display unit 161 (the first display unit 161-1 and the second display unit 161-2) may be a projector or a liquid crystal display as shown in FIG. An organic EL (Electro-Luminescence) display may be used. However, the display unit 161 (the first display unit 161-1 and the second display unit 161-2) may be a display of another form as long as it has a function of displaying a screen.

制御部120は、情報処理装置10の各部の制御を実行する。図3に示したように、制御部120は、画像解析部121、音声認識部122、コマンド認識部123、第1のコマンド取得部124、第2のコマンド取得部125、第3のコマンド取得部126、実行制御部127および表示制御部128を備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部120は、例えば、CPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。制御部120がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。   The control unit 120 executes control of each unit of the information processing apparatus 10. As illustrated in FIG. 3, the control unit 120 includes an image analysis unit 121, a voice recognition unit 122, a command recognition unit 123, a first command acquisition unit 124, a second command acquisition unit 125, and a third command acquisition unit. 126, an execution control unit 127, and a display control unit 128. Details of these functional blocks will be described later. In addition, the control part 120 may be comprised by CPU (Central Processing Unit; Central processing unit) etc., for example. When the control unit 120 is configured by a processing device such as a CPU, the processing device may be configured by an electronic circuit.

以上、本実施形態に係る通信システムの機能構成例について説明した。   The function configuration example of the communication system according to the present embodiment has been described above.

[1.3.通信システムの機能詳細]
続いて、通信システムの機能詳細について説明する。ここで、制御対象機器20によって実行されるコマンドとして、音情報の入力によって実行されるのが適しているコマンドもあれば、操作体(以下、「ユーザ80の手」として主に説明する。)の位置の入力によって実行されるのが適しているコマンドもある。
[1.3. Functional details of communication system]
Subsequently, the functional details of the communication system will be described. Here, as a command executed by the control target device 20, there is a command that is suitable to be executed by inputting sound information, and there is an operation body (hereinafter, mainly described as “the hand of the user 80”). Some commands are suitable to be executed by entering a position.

具体的に、テレビジョン装置の音量を上げるためのコマンド、空調機の電源を入れるためのコマンドなどの単純なコマンド(ユーザ80による選択自由度がより低いコマンド)は、ユーザ80の手の位置の入力によって実行されるのが適している。単純なコマンドがユーザ80の手の位置の入力によって実行される場合には、各コマンドに対応する表示オブジェクト(以下、「ボタン」とも言う。)の数が少なくて済むからというのが一つの原因として挙げられる。   Specifically, simple commands (commands with a lower degree of freedom of selection by the user 80) such as a command for raising the volume of the television device and a command for turning on the air conditioner are used for the position of the user 80's hand. It is suitable to be executed by input. One reason is that when a simple command is executed by inputting the hand position of the user 80, the number of display objects (hereinafter also referred to as “buttons”) corresponding to each command can be reduced. As mentioned.

一方、検索キーワードの入力、番組名の入力などの複雑なコマンド(ユーザ80による選択自由度がより高いコマンド)は、音情報の入力によって実行されるのが適している。複雑なコマンドがユーザ80の手の位置の入力によって実行される場合には、各コマンドに対応するボタンの数が多くなってしまうというのが一つの原因として挙げられる。   On the other hand, it is suitable to execute complicated commands (commands with a higher degree of freedom of selection by the user 80) such as search keyword input and program name input by inputting sound information. When a complicated command is executed by inputting the hand position of the user 80, one reason is that the number of buttons corresponding to each command increases.

そこで、本実施形態においては、コマンドを実行させるための入力の柔軟性を向上させることが可能な技術を主に提案する。   Therefore, in this embodiment, a technique that can improve the flexibility of input for executing a command is mainly proposed.

具体的には、画像解析部121は、撮像部112によって撮像された画像に対する画像解析によってユーザ80の手の位置を得る。また、音声認識部122は、音情報に対する音声認識処理により音声認識処理結果を得る。そして、コマンド認識部123は、ユーザ80の手の位置に基づいてコマンド(第1のコマンド)を認識するとともに、音声認識処理結果に基づいてコマンド(第2のコマンド)を認識する。第1のコマンド取得部124は、第1のコマンドを取得し、第2のコマンド取得部125は、第2のコマンドを取得する。   Specifically, the image analysis unit 121 obtains the position of the hand of the user 80 by image analysis on the image captured by the imaging unit 112. In addition, the voice recognition unit 122 obtains a voice recognition processing result by voice recognition processing on the sound information. The command recognition unit 123 recognizes the command (first command) based on the position of the hand of the user 80 and recognizes the command (second command) based on the voice recognition processing result. The first command acquisition unit 124 acquires the first command, and the second command acquisition unit 125 acquires the second command.

実行制御部127は、第1のコマンド取得部124によって第1のコマンドが取得された場合、第1のコマンドの制御対象機器20による実行を制御する。一方、実行制御部127は、第2のコマンド取得部125によって第2のコマンドが取得された場合、第2のコマンドの制御対象機器20による実行を制御する。かかる構成により、コマンドを実行させるための入力の柔軟性を向上させることが可能となる。   When the first command acquisition unit 124 acquires the first command, the execution control unit 127 controls the execution of the first command by the control target device 20. On the other hand, when the second command acquisition unit 125 acquires the second command, the execution control unit 127 controls the execution of the second command by the control target device 20. With this configuration, it is possible to improve input flexibility for executing a command.

以下、具体例を参照する。図4および図5は、テレビジョン装置(制御対象機器20−1)の電源を入れる動作の例を説明するための図である。まず、ユーザ80はテレビジョン装置(制御対象機器20−1)を観たいと考えた場合、図4に示すように、「TVのコントローラ」と発話する。ユーザ80がこのように発話すると、情報処理装置10の集音部151は、ユーザ80の発話を含む音情報を集音し、音声認識部122は、音情報に対する音声認識処理により音声認識処理結果「TVのコントローラ」を得る。ここで、音声とコマンドとはあらかじめ関連付けられた情報として登録されている。そのため、コマンド認識部123は、あらかじめ関連付けられた情報を参照して、音声認識処理結果「TVのコントローラ」からコマンド「TVのコントローラの表示」を認識する。   Hereinafter, specific examples will be referred to. 4 and 5 are diagrams for describing an example of an operation of turning on the power of the television device (control target device 20-1). First, when the user 80 wants to watch the television device (the control target device 20-1), as shown in FIG. 4, he speaks “TV controller”. When the user 80 utters in this way, the sound collection unit 151 of the information processing apparatus 10 collects sound information including the utterance of the user 80, and the speech recognition unit 122 performs speech recognition processing results by speech recognition processing on the sound information. Get “TV Controller”. Here, the voice and the command are registered as information associated in advance. Therefore, the command recognizing unit 123 recognizes the command “display TV controller” from the voice recognition processing result “TV controller” with reference to information associated in advance.

そして、第2のコマンド取得部125は、コマンド「TVのコントローラの表示」を取得し、表示制御部128は、第2のコマンド取得部125によってコマンド「TVのコントローラの表示」が取得されたため、コマンド「TVのコントローラの表示」を制御する。図4には、TVのコントローラが、コマンド受付画面30−1として表示されている。コマンド受付画面30−1には、各コマンドに対応するボタンが含まれている。   The second command acquisition unit 125 acquires the command “display TV controller”, and the display control unit 128 acquires the command “display TV controller” by the second command acquisition unit 125. The command “display TV controller” is controlled. In FIG. 4, a TV controller is displayed as a command reception screen 30-1. The command reception screen 30-1 includes buttons corresponding to each command.

このとき、図4に示したように、表示制御部128は、ユーザ80の位置に応じた領域へのコマンド受付画面30−1の表示を制御するのがよい。そうすれば、ユーザ80は、実行させたいと考えるコマンドに対応するボタンを押下しやすくなる。ユーザ80の位置に応じた領域は特に限定されないが、ユーザ80の手の届く範囲内であればよい。   At this time, as shown in FIG. 4, the display control unit 128 may control the display of the command reception screen 30-1 in an area corresponding to the position of the user 80. This makes it easier for the user 80 to press a button corresponding to a command that the user wants to execute. The area corresponding to the position of the user 80 is not particularly limited, but may be within a range that the user 80 can reach.

あるいは、TVにコマンドを実行させる場合には、ユーザ80がTVからあまり目を離したくないと考えている場合もあり得る。したがって、表示制御部128は、制御対象機器20−1の位置に応じた領域(例えば、制御対象機器20−1から所定の範囲内)へのコマンド受付画面30−1の表示を制御してもよい。そうすれば、TVからあまり目を離さなくて済むようになる。   Alternatively, when causing the TV to execute a command, there may be a case where the user 80 does not want to keep an eye on the TV. Therefore, the display control unit 128 controls the display of the command reception screen 30-1 in an area (for example, within a predetermined range from the control target device 20-1) according to the position of the control target device 20-1. Good. That way, you won't have to take your eyes off the TV.

このように、表示制御部128は、コマンド受付画面30−1の種類に応じて、コマンド受付画面30−1の表示位置を異ならせることも可能である。しかし、コマンド受付画面30−1がユーザ80の手の届く範囲外にコマンド受付画面30−1が表示されてしまう場合には、コマンド受付画面30−1に対してジェスチャにより行う必要が生じる。   Thus, the display control unit 128 can also change the display position of the command reception screen 30-1 according to the type of the command reception screen 30-1. However, if the command reception screen 30-1 is displayed outside the reach of the user 80, the command reception screen 30-1 needs to be performed with a gesture on the command reception screen 30-1.

なお、コマンド受付画面30−1は、あらかじめ第1の記憶部130に記憶されていてもよいが、制御対象機器(TV)20−1の第2の記憶部230から情報処理装置10にダウンロードされてもよいし、外部ネットワーク30を介して外部サーバ(第3の記憶部330)から情報処理装置10にダウンロードされてもよい。   The command reception screen 30-1 may be stored in the first storage unit 130 in advance, but is downloaded from the second storage unit 230 of the control target device (TV) 20-1 to the information processing apparatus 10. Alternatively, the information may be downloaded from the external server (third storage unit 330) to the information processing apparatus 10 via the external network 30.

コマンド受付画面30−1が表示されると、ボタン押下による入力が可能となる。続いて、図5に示すように、ユーザ80がコマンド受付画面30−1における電源ボタンを押下する。コマンド認識部123は、ユーザ80の手の位置に基づいてコマンドを認識する。例えば、コマンド認識部123は、ユーザ80の手の位置との間で所定の関係を満たすボタンの位置が検出された場合、そのボタンに対応するコマンドを認識する。   When the command reception screen 30-1 is displayed, input by pressing a button becomes possible. Subsequently, as shown in FIG. 5, the user 80 presses the power button on the command reception screen 30-1. The command recognition unit 123 recognizes a command based on the position of the hand of the user 80. For example, when a button position that satisfies a predetermined relationship with the position of the hand of the user 80 is detected, the command recognition unit 123 recognizes a command corresponding to the button.

本実施形態では、一例として、コマンド認識部123が、ユーザ80の手が重なったボタンが検出された場合、そのボタンに対応するコマンドを認識する場合を主に説明する。ここでは、ユーザ80の人差し指が重なったボタンとして電源ボタンが検出され、電源ボタンに対応するコマンド「電源ON」が認識される。そして、第1のコマンド取得部124は、コマンド「電源ON」を取得する。また、図5に示すように、実行制御部127は、第1のコマンド取得部124によってコマンド「電源ON」が取得されると、制御対象機器(TV)20−1の電源が投入されるように制御対象機器(TV)20−1を制御する。   In the present embodiment, as an example, a case will be mainly described in which the command recognizing unit 123 recognizes a command corresponding to a button when the button of the user 80 is overlapped. Here, the power button is detected as the button on which the index finger of the user 80 overlaps, and the command “power ON” corresponding to the power button is recognized. Then, the first command acquisition unit 124 acquires the command “power ON”. Further, as shown in FIG. 5, when the command “power ON” is acquired by the first command acquisition unit 124, the execution control unit 127 turns on the control target device (TV) 20-1. The control target device (TV) 20-1 is controlled.

なお、ここでは、ユーザ80の手が重なったボタンが検出されることのみを契機に、そのボタンに対応するコマンドが認識される例を示した。しかし、コマンド認識部123は、ユーザ80の手が重なったボタンが検出された場合、所定のコマンド決定操作が検出された場合、そのボタンに対応するコマンドを認識してもよい。ここで、コマンド決定操作は限定されないが、ユーザ80の手が所定の位置(距離検出部113の位置)から見て遠ざかる方向に移動することを含んでもよい。ユーザ80の手の移動は、距離検出部113によって検出されればよい。   Here, an example is shown in which a command corresponding to a button is recognized only when a button with the user 80's hand overlapping is detected. However, the command recognizing unit 123 may recognize a command corresponding to the button when a button with which the user 80 is overlapped is detected or when a predetermined command determining operation is detected. Here, the command determining operation is not limited, but may include moving the hand of the user 80 in a direction away from a predetermined position (position of the distance detection unit 113). The movement of the hand of the user 80 may be detected by the distance detection unit 113.

あるいは、コマンド決定操作は、ユーザ80の手が所定の位置(距離検出部113の位置)から見て遠ざかる方向に所定の速さを超えた速さで移動することを含んでもよい。あるいは、コマンド決定操作は、ユーザ80が所定の位置(距離検出部113の位置)から見て遠ざかる方向に所定の距離を超えた距離だけ所定の速さを超えた速さで移動することを含んでもよい。   Alternatively, the command determination operation may include moving the user 80's hand in a direction away from a predetermined position (the position of the distance detection unit 113) at a speed exceeding a predetermined speed. Alternatively, the command determination operation includes the user 80 moving at a speed exceeding the predetermined speed by a distance exceeding the predetermined distance in a direction away from the predetermined position (position of the distance detecting unit 113). But you can.

図6〜図10は、レコーダ(制御対象機器20−2)に記録されている番組を再生する動作の例を説明するための図である。まず、ユーザ80はレコーダ(制御対象機器20−2)に記録されている番組リストを観たいと考えた場合、図6に示すように、「レコーダのコントローラ」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「レコーダのコントローラの表示」を制御する。図6には、レコーダのコントローラが、コマンド受付画面30−2として表示されている。   6-10 is a figure for demonstrating the example of the operation | movement which reproduces | regenerates the program currently recorded on the recorder (control object apparatus 20-2). First, when the user 80 wants to view the program list recorded in the recorder (the control target device 20-2), as shown in FIG. 6, the user 80 speaks “recorder controller”. When the user 80 speaks in this way, the display control unit 128 controls the command “display recorder controller” in the same manner as described with reference to FIGS. 4 and 5. In FIG. 6, the controller of the recorder is displayed as a command reception screen 30-2.

コマンド受付画面30−2が表示されると、ボタン押下による入力が可能となる。図7に示すように、ユーザ80がコマンド受付画面30−2における番組リスト表示ボタンを押下する。コマンド認識部123は、ユーザ80の人差し指が重なったボタンとして番組リスト表示ボタンを検出し、番組リスト表示ボタンに対応するコマンド「番組リスト表示」を認識する。そして、第1のコマンド取得部124は、コマンド「番組リスト表示」を取得する。   When the command reception screen 30-2 is displayed, input by pressing a button becomes possible. As shown in FIG. 7, the user 80 presses a program list display button on the command reception screen 30-2. The command recognition unit 123 detects the program list display button as a button with the index finger of the user 80 overlapped, and recognizes the command “program list display” corresponding to the program list display button. Then, the first command acquisition unit 124 acquires the command “display program list”.

実行制御部127は、第1のコマンド取得部124によってコマンド「番組リスト表示」が取得されると、制御対象機器(レコーダ)20−2に記録されている番組リストが制御対象機器(TV)20−1に表示されるように制御対象機器(レコーダ)20−2を制御する。図7を参照すると、番組リストが制御対象機器(TV)20−1に表示されている。   When the command “display program list” is acquired by the first command acquisition unit 124, the execution control unit 127 displays the program list recorded in the control target device (recorder) 20-2 as the control target device (TV) 20. The control target device (recorder) 20-2 is controlled so as to be displayed at -1. Referring to FIG. 7, a program list is displayed on the control target device (TV) 20-1.

ここで、ユーザ80が番組P1の詳細を観たいと考えた場合、図8に示すように、「番組P1」と発話する。ユーザ80がこのように発話すると、情報処理装置10の集音部151は、ユーザ80の発話を含む音情報を集音し、音声認識部122は、音情報に対する音声認識処理により音声認識処理結果「番組P1」を得る。コマンド認識部123は、あらかじめ関連付けられた情報を参照して、音声認識処理結果「番組P1」からコマンド「番組P1の詳細表示」を認識する。   Here, when the user 80 wants to see the details of the program P1, as shown in FIG. 8, he / she utters “program P1”. When the user 80 utters in this way, the sound collection unit 151 of the information processing apparatus 10 collects sound information including the utterance of the user 80, and the speech recognition unit 122 performs speech recognition processing results by speech recognition processing on the sound information. “Program P1” is obtained. The command recognition unit 123 recognizes the command “detailed display of the program P1” from the voice recognition processing result “program P1” with reference to information associated in advance.

そして、第2のコマンド取得部125は、コマンド「番組P1の詳細表示」を取得し、実行制御部127は、第2のコマンド取得部125によってコマンド「番組P1の詳細表示」が取得されたため、コマンド「番組P1の詳細表示」が実行されるように制御対象機器(レコーダ)20−2を制御する。図8を参照すると、制御対象機器(レコーダ)20−2による制御に従って、制御対象機器(TV)20−1に番組P1の詳細が表示されている。   The second command acquisition unit 125 acquires the command “detailed display of program P1”, and the execution control unit 127 acquires the command “detailed display of program P1” by the second command acquisition unit 125. The control target device (recorder) 20-2 is controlled such that the command “detailed display of program P1” is executed. Referring to FIG. 8, the details of the program P1 are displayed on the control target device (TV) 20-1 according to the control by the control target device (recorder) 20-2.

コマンド認識部123によるコマンド認識の優先度は特に限定されない。すなわち、ユーザ80の手と重なるボタンに対応するコマンドの認識と、音情報から音声認識処理された音声認識処理結果に対応するコマンドの認識とは、どちらが先行されてもよい。例えば、コマンド認識部123は、ユーザ80の手と重なるボタンが検出されない場合、音声認識処理結果に対応するコマンドを認識してもよい。第2のコマンド取得部125は、かかるコマンドを取得する。   The priority of command recognition by the command recognition unit 123 is not particularly limited. That is, either the recognition of the command corresponding to the button overlapping the hand of the user 80 or the recognition of the command corresponding to the voice recognition processing result obtained by performing the voice recognition processing from the sound information may be preceded. For example, the command recognition unit 123 may recognize a command corresponding to the voice recognition processing result when a button overlapping the hand of the user 80 is not detected. The second command acquisition unit 125 acquires such a command.

この後、表示された番組リストP1のページを切り替えたいとユーザ80が考えたとする。そのとき、所定のジェスチャによってページ切り替えが可能であってよい。具体的には、図9に示すように、コマンド認識部123は、ユーザ80の手のうち人差し指と小指とが開かれ、かつ、親指と中指と薬指とが閉じられた状態においてユーザ80の手が移動された場合に、現在表示されているページの次のページに表示を切り替えるためのコマンドを認識してもよい。図9に示された例では、このようなコマンドが認識され、第1のコマンド取得部124によって取得され、実行制御部127によって次ページへの切り替えが実行制御されている。   Thereafter, it is assumed that the user 80 wants to switch the page of the displayed program list P1. At that time, the page may be switched by a predetermined gesture. Specifically, as shown in FIG. 9, the command recognition unit 123 detects the hand of the user 80 in a state in which the index finger and the little finger are opened and the thumb, the middle finger, and the ring finger are closed. When is moved, a command for switching the display to the next page of the currently displayed page may be recognized. In the example shown in FIG. 9, such a command is recognized, acquired by the first command acquisition unit 124, and execution control of the switching to the next page is controlled by the execution control unit 127.

そして、ユーザ80は、番組リストP1から再生対象の番組を決定するために、所定のジェスチャ(例えば、人差し指を移動させる操作など)によって画面内のポインタを再生対象の番組まで移動させてから、所定の音声(図10に示すように、「決定」など)を発すればよい。コマンド認識部123は、所定の音声が発せられると、ポインタが示す番組「コンテンツC5」と、音声「決定」とに対応するコマンド「コンテンツC5の再生」を認識し、実行制御部127は「コンテンツC5の再生」の実行を制御する。   Then, the user 80 moves the pointer in the screen to the program to be reproduced by a predetermined gesture (for example, an operation of moving the index finger, etc.) to determine the program to be reproduced from the program list P1, and then determines the program to be reproduced. (Such as “decision” as shown in FIG. 10). When a predetermined sound is emitted, the command recognizing unit 123 recognizes the program “content C5” indicated by the pointer and the command “playback of content C5” corresponding to the sound “decision”, and the execution control unit 127 displays “contents”. Execution of “C5 playback” is controlled.

なお、コマンド認識部123によるコマンド認識の優先度は特に限定されない。しかし、例えば、コマンド認識部123は、ポインタと重なる番組が検出された場合、かつ、コマンド決定操作が検出されない場合、かつ、音声認識処理結果が番組に対応することが検出された場合、番組および音声認識処理結果に応じたコマンドを認識してもよい。第3のコマンド取得部126は、かかるコマンドを取得し、実行制御部127は、かかるコマンドの制御対象機器20による実行を制御する。   The priority of command recognition by the command recognition unit 123 is not particularly limited. However, for example, when the program that overlaps the pointer is detected, when the command determination operation is not detected, and when it is detected that the voice recognition processing result corresponds to the program, the command recognition unit 123 You may recognize the command according to a speech recognition process result. The third command acquisition unit 126 acquires the command, and the execution control unit 127 controls execution of the command by the control target device 20.

図11〜図14は、空調機(制御対象機器20−3)を制御する動作の例を説明するための図である。まず、ユーザ80は空調機(制御対象機器20−3)を制御したいと考えた場合、図11に示すように、「空調機のコントローラ」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「空調機のコントローラの表示」を制御する。図11には、空調機のコントローラが、コマンド受付画面30−3Aとして表示されている。   FIGS. 11-14 is a figure for demonstrating the example of the operation | movement which controls an air conditioner (control object apparatus 20-3). First, when the user 80 wants to control the air conditioner (the control target device 20-3), as shown in FIG. 11, the user 80 speaks “air conditioner controller”. When the user 80 speaks in this way, the display control unit 128 controls the command “display air conditioner controller” in the same manner as described with reference to FIGS. 4 and 5. In FIG. 11, the controller of the air conditioner is displayed as a command reception screen 30-3A.

コマンド受付画面30−3Aが表示されると、ボタン押下による入力が可能となる。図12に示すように、ユーザ80がコマンド受付画面30−3Aにおける電源ボタンを押下する。コマンド認識部123は、ユーザ80の人差し指が重なったボタンとして電源ボタンを検出し、電源ボタンに対応するコマンド「電源ON」を認識する。そして、第1のコマンド取得部124は、コマンド「電源ON」を取得する。   When the command reception screen 30-3A is displayed, input by pressing a button becomes possible. As shown in FIG. 12, the user 80 presses the power button on the command reception screen 30-3A. The command recognition unit 123 detects the power button as the button on which the index finger of the user 80 is overlapped, and recognizes the command “power ON” corresponding to the power button. Then, the first command acquisition unit 124 acquires the command “power ON”.

実行制御部127は、第1のコマンド取得部124によってコマンド「電源ON」が取得されると、空調機(制御対象機器20−3)の電源が投入されるように空調機(制御対象機器20−3)を制御する。図12を参照すると、空調機(制御対象機器20−3)の電源が投入されて、空調機(制御対象機器20−3)から風が出てきている様子が示されている。表示内容は、図13に示すように、コマンド受付画面30−3Aからコマンド受付画面30−3Bに切り替えられる。   When the command “power ON” is acquired by the first command acquisition unit 124, the execution control unit 127 is configured to turn on the air conditioner (control target device 20-3). -3) is controlled. Referring to FIG. 12, the air conditioner (control target device 20-3) is turned on, and the wind from the air conditioner (control target device 20-3) is shown. As shown in FIG. 13, the display content is switched from the command reception screen 30-3A to the command reception screen 30-3B.

コマンド受付画面30−3Bにおいて、ボタン押下による入力が引き続き可能である。図13に示すように、ユーザ80がコマンド受付画面30−3Bにおける気流強ボタンを押下する。コマンド認識部123は、ユーザ80の人差し指が重なったボタンとして気流強ボタンを検出し、気流強ボタンに対応するコマンド「気流強」を認識する。そして、第1のコマンド取得部124は、コマンド「気流強」を取得する。   On the command reception screen 30-3B, input by pressing a button can be continued. As shown in FIG. 13, the user 80 presses the strong airflow button on the command reception screen 30-3B. The command recognizing unit 123 detects the strong airflow button as the button on which the index finger of the user 80 overlaps, and recognizes the command “strong airflow” corresponding to the strong airflow button. Then, the first command acquisition unit 124 acquires the command “strong air current”.

実行制御部127は、第1のコマンド取得部124によってコマンド「気流強」が取得されると、空調機(制御対象機器20−3)の気流が強くなるように空調機(制御対象機器20−3)を制御する。図13を参照すると、空調機(制御対象機器20−3)の気流が強くされて、空調機(制御対象機器20−3)から強い風が出てきている様子が示されている。図14に示すように、コマンド受付画面30−3Bが表示されていた状態から、特に何も表示されない状態に切り替えられる。   When the command “strong airflow” is acquired by the first command acquisition unit 124, the execution control unit 127 increases the airflow of the air conditioner (control target device 20-3) so that the airflow (control target device 20-is high). 3) is controlled. Referring to FIG. 13, it is shown that the airflow of the air conditioner (control target device 20-3) is strengthened and a strong wind is emitted from the air conditioner (control target device 20-3). As shown in FIG. 14, the state where the command reception screen 30-3B is displayed is switched to a state where nothing is displayed.

ここで、ユーザ80が加湿モードにモードを切り替えたいと考えた場合、図14に示すように、「加湿」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、コマンド認識部123は、あらかじめ関連付けられた情報を参照して、音声認識処理結果「加湿」からコマンド「加湿モードへのモード切り替え」を認識する。   Here, when the user 80 wants to switch the mode to the humidification mode, the user speaks “humidification” as shown in FIG. When the user 80 speaks in this way, as in the case described with reference to FIG. 8, the command recognizing unit 123 refers to the information associated in advance, and the command “humidification mode” from the voice recognition processing result “humidification”. Recognize mode switching to

そして、第2のコマンド取得部125は、コマンド「加湿モードへのモード切り替え」を取得し、実行制御部127は、第2のコマンド取得部125によってコマンド「加湿モードへのモード切り替え」が取得されたため、コマンド「加湿モードへのモード切り替え」が実行されるように制御対象機器(空調機)20−3を制御する。図14を参照すると、制御対象機器(空調機)20−3のモードが加湿モードに切り替わっている。   Then, the second command acquisition unit 125 acquires the command “mode switching to the humidification mode”, and the execution control unit 127 acquires the command “mode switching to the humidification mode” by the second command acquisition unit 125. Therefore, the control target device (air conditioner) 20-3 is controlled so that the command “mode switching to the humidification mode” is executed. Referring to FIG. 14, the mode of the control target device (air conditioner) 20-3 is switched to the humidification mode.

図15〜図17は、制御対象機器(コーヒーメーカ)20−4を制御する動作の例を説明するための図である。まず、ユーザ80は制御対象機器(コーヒーメーカ)20−4を利用したいと考えた場合、図15に示すように、「コーヒーメーカ」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「コーヒーのリスト表示」を制御する。図15には、コーヒーのリストが、コマンド受付画面30−4として表示されている。   FIGS. 15-17 is a figure for demonstrating the example of the operation | movement which controls the control object apparatus (coffee maker) 20-4. First, when the user 80 wants to use the control target device (coffee maker) 20-4, he / she utters “coffee maker” as shown in FIG. When the user 80 speaks in this way, the display control unit 128 controls the command “display coffee list” in the same manner as described with reference to FIGS. 4 and 5. In FIG. 15, a list of coffee is displayed as a command reception screen 30-4.

コマンド受付画面30−4が表示されると、ボタン押下による入力が可能となる。図16に示すように、ユーザ80が制御対象機器(コーヒーメーカ)20−4にカップCuを置き、コマンド受付画面30−4におけるカプチーノを押下する。コマンド認識部123は、ユーザ80の人差し指が重なったボタンとしてカプチーノボタンを検出し、カプチーノボタンに対応するコマンド「カプチーノを入れる」を認識する。そして、第1のコマンド取得部124は、コマンド「カプチーノを入れる」を取得する。   When the command reception screen 30-4 is displayed, input by pressing a button becomes possible. As shown in FIG. 16, the user 80 places a cup Cu on the control target device (coffee maker) 20-4 and presses a cappuccino on the command reception screen 30-4. The command recognizing unit 123 detects the cappuccino button as a button on which the index finger of the user 80 overlaps, and recognizes the command “insert cappuccino” corresponding to the cappuccino button. Then, the first command acquisition unit 124 acquires the command “insert cappuccino”.

実行制御部127は、第1のコマンド取得部124によってコマンド「カプチーノを入れる」が取得されると、カプチーノをカップCuに入れるように制御対象機器(コーヒーメーカ)20−4を制御する。図16を参照すると、制御対象機器(コーヒーメーカ)20−4にカップCuが置かれ、カップCuにカプチーノが入れられた様子が示されている。   When the command “put cappuccino” is acquired by the first command acquisition unit 124, the execution control unit 127 controls the control target device (coffee maker) 20-4 so as to put cappuccino into the cup Cu. Referring to FIG. 16, a state in which a cup Cu is placed in the control target device (coffee maker) 20-4 and a cappuccino is placed in the cup Cu is shown.

ここで、図17に示すように、ユーザ80が制御対象機器(コーヒーメーカ)20−4にカップCuを置き、コマンド受付画面30−4におけるカプチーノを押下する代わりに、「カプチーノ」と発話してもよい。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、コマンド認識部123は、あらかじめ関連付けられた情報を参照して、音声認識処理結果「カプチーノ」からコマンド「カプチーノを入れる」を認識する。   Here, as shown in FIG. 17, instead of placing the cup Cu on the control target device (coffee maker) 20-4 and pressing the cappuccino on the command reception screen 30-4, the user 80 speaks “Cappuccino”. Also good. When the user 80 speaks in this way, as in the case described with reference to FIG. 8, the command recognizing unit 123 refers to the information associated in advance and determines the command “Cappuccino” from the speech recognition processing result “Cappuccino”. Recognize.

そして、第2のコマンド取得部125は、コマンド「カプチーノを入れる」を取得し、実行制御部127は、第2のコマンド取得部125によってコマンド「カプチーノを入れる」が取得されたため、コマンド「カプチーノを入れる」が実行されるように制御対象機器(コーヒーメーカ)20−4を制御する。図17を参照すると、制御対象機器(コーヒーメーカ)20−4にカップCuが置かれ、カップCuにカプチーノが入れられた様子が示されている。   Then, the second command acquisition unit 125 acquires the command “insert cappuccino”, and the execution control unit 127 acquires the command “cappuccino input” because the second command acquisition unit 125 acquires the command “insert cappuccino”. Control target device (coffee maker) 20-4 is controlled so that “put in” is executed. Referring to FIG. 17, a state in which a cup Cu is placed in the control target device (coffee maker) 20-4 and cappuccino is placed in the cup Cu is shown.

図18〜図23は、天気予報の表示を制御する動作の例を説明するための図である。まず、ユーザ80は天気予報を閲覧したいと考えた場合、図18に示すように、「天気予報」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「現在地の天気予報の表示」を制御する。図18には、現在地の天気予報が、コマンド受付画面30−5Aとして表示されている。なお、現在地の天気予報は、外部ネットワーク30を介して図示しないサーバから取得されてよい。   18 to 23 are diagrams for describing an example of an operation for controlling the display of the weather forecast. First, when the user 80 wants to view the weather forecast, the user 80 utters “weather forecast” as shown in FIG. When the user 80 speaks in this way, the display control unit 128 controls the command “display weather forecast of current location” in the same manner as described with reference to FIGS. 4 and 5. In FIG. 18, the weather forecast for the current location is displayed as a command reception screen 30-5A. The weather forecast for the current location may be acquired from a server (not shown) via the external network 30.

なお、天気予報などのように細かい情報は、大きな画面に表示されるのが見やすさの観点からよいと考えられる。したがって、図18に示すように、天気予報が制御対象機器(TV)20−1の画面に表示されてよい。このとき、図18に示すように、情報処理装置10が自律的に制御対象機器(TV)20−1の方に向きを変えるようにしてよい。そうすれば、ユーザ80も制御対象機器(TV)20−1に天気予報が表示されることを感覚的により容易に把握しやすくなる。   It should be noted that detailed information such as a weather forecast is preferably displayed on a large screen from the viewpoint of ease of viewing. Therefore, as shown in FIG. 18, the weather forecast may be displayed on the screen of the control target device (TV) 20-1. At this time, as illustrated in FIG. 18, the information processing apparatus 10 may autonomously change the direction toward the control target device (TV) 20-1. If it does so, it will become easy to grasp | ascertain easily that the user 80 will also display a weather forecast on the control object apparatus (TV) 20-1.

続いて、ユーザ80は現在地(東京)の週間天気を閲覧したいと考えた場合、図18に示すように、「週間天気」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、実行制御部127は、コマンド「現在地の週間天気の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図19を参照すると、制御対象機器(図示しないサーバ)から取得された東京の週間天気がコマンド受付画面30−5Bとして表示されている様子が示されている。   Subsequently, when the user 80 wants to browse the weekly weather of the current location (Tokyo), the user 80 utters “weekly weather” as shown in FIG. When the user 80 speaks in this way, as in the case described with reference to FIG. 8, the execution control unit 127 controls the device to be controlled (server not shown) so that the command “display weekly weather at the current location” is executed. ) To control. Referring to FIG. 19, a state in which the weekly weather in Tokyo acquired from a control target device (a server not shown) is displayed as a command reception screen 30-5B is shown.

続いて、ユーザ80は大阪の週間天気を閲覧したいと考えた場合、図20に示すように、「大阪の週間天気」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、実行制御部127は、コマンド「大阪の週間天気の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図20を参照すると、制御対象機器(図示しないサーバ)から取得された大阪の週間天気がコマンド受付画面30−5Bとして表示されている様子が示されている。   Subsequently, when the user 80 wants to browse the weekly weather in Osaka, the user 80 utters “weekly weather in Osaka” as shown in FIG. When the user 80 speaks in this way, the execution control unit 127 controls the device to be controlled (server not shown) so that the command “display weekly weather in Osaka” is executed as in the case described with reference to FIG. ) To control. Referring to FIG. 20, a state where the weekly weather in Osaka acquired from a control target device (a server not shown) is displayed as a command reception screen 30-5B is shown.

続いて、ユーザ80はメッシュ天気を閲覧したいと考えた場合、図21に示すように、「メッシュ天気」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、実行制御部127は、コマンド「メッシュ天気の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図21を参照すると、制御対象機器(図示しないサーバ)から取得されたメッシュ天気がコマンド受付画面30−5Cとして表示されている様子が示されている。   Subsequently, when the user 80 wishes to view the mesh weather, the user 80 utters “mesh weather” as shown in FIG. When the user 80 speaks in this way, the execution control unit 127 selects the control target device (server not shown) so that the command “display mesh weather” is executed, as in the case described with reference to FIG. Control. Referring to FIG. 21, a state in which mesh weather acquired from a control target device (a server not shown) is displayed as a command reception screen 30-5C is shown.

続いて、ユーザ80は熊本の天気変化を閲覧したいと考えた場合、図22に示すように、所定のジェスチャ(例えば、人差し指を移動させる操作など)によって画面内のポインタを熊本まで移動させてから、所定の決定操作(図22に示すように、手の平を画面に向けて押す動作など)をすればよい。このように操作すると、実行制御部127は、コマンド「熊本の天気変化の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図23を参照すると、制御対象機器(図示しないサーバ)から取得された熊本の天気変化がコマンド受付画面30−5Dとして表示されている様子が示されている。   Subsequently, when the user 80 wants to view the weather change in Kumamoto, as shown in FIG. 22, the user 80 moves the pointer in the screen to Kumamoto by a predetermined gesture (for example, an operation of moving the index finger, etc.). A predetermined determination operation (such as an operation of pressing the palm of the hand toward the screen as shown in FIG. 22) may be performed. When operated in this way, the execution control unit 127 controls the control target device (a server not shown) so that the command “display weather change in Kumamoto” is executed. Referring to FIG. 23, a state in which a weather change in Kumamoto acquired from a control target device (a server not shown) is displayed as a command reception screen 30-5D is shown.

図24〜図26は、金閣寺の写真の表示を制御する動作の例を説明するための図である。まず、ユーザ80は金閣寺の写真を閲覧したいと考えた場合、図24に示すように、「金閣寺の写真」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「金閣寺の写真の表示」を制御する。図24には、金閣寺の写真のサムネイル画像が、コマンド受付画面30−6Aとして表示されている。なお、金閣寺の写真は、外部ネットワーク30を介して図示しないサーバから取得されてよい。   FIGS. 24-26 is a figure for demonstrating the example of the operation | movement which controls the display of the photograph of Kinkakuji. First, when the user 80 wants to view a photo of Kinkakuji, he utters “photo of Kinkakuji” as shown in FIG. When the user 80 speaks in this way, the display control unit 128 controls the command “display photo of Kinkakuji” as in the case described with reference to FIGS. 4 and 5. In FIG. 24, thumbnail images of photographs of Kinkakuji are displayed as a command reception screen 30-6A. The photograph of Kinkakuji may be acquired from a server (not shown) via the external network 30.

続いて、ユーザ80は左下のサムネイル画像の拡大画像を閲覧したいと考えた場合、図25に示すように、所定のジェスチャ(例えば、人差し指を移動させる操作など)によって画面内のポインタを左下のサムネイル画像まで移動させてから、所定の決定操作(図25に示すように、手の平を画面に向けて押す動作など)をすればよい。このように操作すると、実行制御部127は、コマンド「拡大画像の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図26を参照すると、制御対象機器(図示しないサーバ)から取得された拡大画像がコマンド受付画面30−6Aとして表示されている様子が示されている。   Subsequently, when the user 80 wants to view the enlarged image of the lower left thumbnail image, as shown in FIG. 25, the user moves the pointer in the screen to the lower left thumbnail by a predetermined gesture (for example, an operation of moving the index finger, etc.). After moving to the image, a predetermined determination operation (such as an operation of pushing the palm toward the screen as shown in FIG. 25) may be performed. When operated in this way, the execution control unit 127 controls the control target device (server not shown) so that the command “display enlarged image” is executed. Referring to FIG. 26, a state is shown in which an enlarged image acquired from a control target device (a server not shown) is displayed as a command reception screen 30-6A.

図27〜図29は、予定表の表示を制御する動作の例を説明するための図である。まず、ユーザ80は予定表を閲覧したいと考えた場合、図27に示すように、「予定表」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「予定表の表示」を制御する。図27には、予定表が、コマンド受付画面30−7Aとして表示されている。なお、予定表は、あらかじめ第1の記憶部130に記憶されていてよい。   27 to 29 are diagrams for explaining an example of an operation for controlling display of the schedule table. First, when the user 80 wants to view the schedule, he / she utters “schedule” as shown in FIG. When the user 80 speaks in this way, the display control unit 128 controls the command “display schedule” in the same manner as described with reference to FIGS. 4 and 5. In FIG. 27, the schedule is displayed as a command reception screen 30-7A. The schedule may be stored in the first storage unit 130 in advance.

続いて、ユーザ80は予定表の中における今月25日の予定表を閲覧したいと考えた場合、図28に示すように、「25日の予定」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、実行制御部127は、コマンド「今月25日の予定表の表示」が実行されるように第1の記憶部130を制御する。図28を参照すると、第1の記憶部130から取得された今月25日の予定表がコマンド受付画面30−7Bとして表示されている様子が示されている。   Subsequently, when the user 80 wants to view the schedule for the 25th of this month in the schedule, he / she utters “schedule for the 25th” as shown in FIG. When the user 80 utters in this manner, the execution control unit 127 executes the command “display the schedule for 25th of this month” in the same manner as described with reference to FIG. 130 is controlled. Referring to FIG. 28, a state is shown in which the schedule table for 25th of this month acquired from the first storage unit 130 is displayed as the command reception screen 30-7B.

続いて、ユーザ80は予定表のトップページに戻りたいと考えた場合、図29に示すように、所定のジェスチャ(例えば、手を開いた状態において手を移動させる操作など)をすればよい。このように操作すると、コマンド認識部123は、現在表示されているページが属するページ群のトップページに表示を切り替えるためのコマンドを認識し、第1のコマンド取得部124は、かかるコマンドを取得し、実行制御部127は、かかるコマンド「トップページへの遷移」が実行されるように第1の記憶部130を制御する。図29を参照すると、予定表のトップページがコマンド受付画面30−7Aとして表示されている様子が示されている。   Subsequently, when the user 80 wants to return to the top page of the schedule table, as shown in FIG. 29, the user 80 may perform a predetermined gesture (for example, an operation of moving the hand with the hand open). When operated in this way, the command recognition unit 123 recognizes a command for switching the display to the top page of the page group to which the currently displayed page belongs, and the first command acquisition unit 124 acquires the command. The execution control unit 127 controls the first storage unit 130 such that the command “transition to the top page” is executed. Referring to FIG. 29, a state where the top page of the schedule table is displayed as the command reception screen 30-7A is shown.

続いて、本実施形態に係る情報処理装置10の動作の流れについて説明する。図30Aおよび図30Bは、本実施形態に係る情報処理装置10の動作の流れを示すフローチャートである。まず、画像解析部121は、撮像部112によって撮像された画像に基づいて、ユーザ80の位置を検出する(S11)。続いて、表示制御部128は、表示部161による表示位置をユーザの位置に基づいて移動させる(S12)。続いて、表示制御部128は、ユーザの発話に基づいてコマンド受付画面を表示部161に表示させる(S13)。   Next, the operation flow of the information processing apparatus 10 according to the present embodiment will be described. FIG. 30A and FIG. 30B are flowcharts showing an operation flow of the information processing apparatus 10 according to the present embodiment. First, the image analysis unit 121 detects the position of the user 80 based on the image captured by the imaging unit 112 (S11). Subsequently, the display control unit 128 moves the display position of the display unit 161 based on the position of the user (S12). Subsequently, the display control unit 128 causes the display unit 161 to display a command reception screen based on the user's utterance (S13).

続いて、コマンド認識部123は、画像解析部121による解析結果を参照し、ユーザ80の手が撮像されていない場合には(S14において「No」)、S23に動作を移行させる。一方、コマンド認識部123は、画像解析部121による解析結果を参照し、ユーザ80の手が撮像されている場合(S14において「Yes」)、S15に動作を移行させる。続いて、コマンド認識部123は、有効位置(ボタンの位置など)にユーザ80の手がない場合には(S15において「No」)、S23に動作を移行させる。一方、コマンド認識部123は、有効位置(ボタンの位置など)にユーザ80の手がある場合には(S15において「Yes」)、S16に動作を移行させる。   Subsequently, the command recognition unit 123 refers to the analysis result by the image analysis unit 121, and moves the operation to S23 when the hand of the user 80 is not captured ("No" in S14). On the other hand, the command recognition unit 123 refers to the analysis result by the image analysis unit 121, and moves the operation to S15 when the hand of the user 80 is captured ("Yes" in S14). Subsequently, when the user 80 does not have a hand at the valid position (button position or the like) (“No” in S15), the command recognition unit 123 shifts the operation to S23. On the other hand, the command recognition unit 123 shifts the operation to S16 when the hand of the user 80 is at an effective position (button position or the like) (“Yes” in S15).

続いて、コマンド認識部123は、距離検出部113によって検出されたユーザ80までの距離を参照して、ユーザ80の手が奥方向に移動していない場合には(S16において「No」)、S19に動作を移行させる。一方、コマンド認識部123は、距離検出部113によって検出されたユーザ80までの距離を参照して、ユーザ80の手が奥方向に移動した場合には(S16において「Yes」)、S17に動作を移行させる。   Subsequently, the command recognition unit 123 refers to the distance to the user 80 detected by the distance detection unit 113, and when the user 80's hand has not moved in the back direction ("No" in S16), The operation is shifted to S19. On the other hand, the command recognition unit 123 refers to the distance to the user 80 detected by the distance detection unit 113, and when the user 80's hand moves in the back direction ("Yes" in S16), the command recognition unit 123 operates in S17. To migrate.

続いて、コマンド認識部123は、所定の速さを超える速さによって所定の距離を超える距離だけユーザ80の手が奥方向に移動していない場合には(S17において「No」)、S19に動作を移行させる。一方、実行制御部127は、所定の速さを超える速さによって所定の距離を超える距離だけユーザ80の手が奥方向に移動した場合には(S17において「Yes」)、ユーザ80の手によって指示されるコマンドが実行されるように制御対象機器20を制御する(S18)。   Subsequently, when the hand of the user 80 has not moved in the back direction by a distance exceeding the predetermined distance due to the speed exceeding the predetermined speed (“No” in S17), the command recognition unit 123 proceeds to S19. Transition operation. On the other hand, when the hand of the user 80 moves in the back direction by a distance exceeding the predetermined distance due to the speed exceeding the predetermined speed (“Yes” in S17), the execution control unit 127 performs the operation by the user 80. The control target device 20 is controlled so that the instructed command is executed (S18).

続いて、音声認識部122は、ユーザ80による発話がない場合には(S19において「No」)、S14に動作を移行させるが、ユーザ80による発話があった場合には(S19において「Yes」)、集音部151によって集音された音情報に対して音声認識処理(これ、削除、録画、再生など)を行い(S20)、S21に動作を移行させる。   Subsequently, when there is no utterance by the user 80 (“No” in S19), the voice recognition unit 122 shifts the operation to S14, but when there is an utterance by the user 80 (“Yes” in S19). ), Voice recognition processing (this, deletion, recording, reproduction, etc.) is performed on the sound information collected by the sound collecting unit 151 (S20), and the operation is shifted to S21.

続いて、実行制御部127は、音声が手によって指示される表示オブジェクト(ボタンなど)に対応する場合には(S21において「Yes」)、手および音声によって指示されるコマンドが実行されるように制御対象機器20を制御する(S22)。一方、実行制御部127は、音声が手によって指示される表示オブジェクト(ボタンなど)に対応しない場合には(S21において「Yes」)、S23に動作を移行させる。   Subsequently, when the voice corresponds to a display object (button or the like) indicated by the hand (“Yes” in S21), the execution control unit 127 executes the command indicated by the hand and the voice. The control target device 20 is controlled (S22). On the other hand, when the voice does not correspond to the display object (button or the like) indicated by the hand (“Yes” in S21), the execution control unit 127 shifts the operation to S23.

続いて、音声認識部122は、ユーザ80による発話がない場合には(S23において「No」)、S14に動作を移行させるが、ユーザ80による発話があった場合には(S23において「Yes」)、集音部151によって集音された音情報に対して音声認識処理(キャンセル、電源ON、次のページに進むなど)を行い(S24)、音声によって指示されるコマンドが実行されるように制御対象機器20を制御する(S25)。   Subsequently, when there is no utterance by the user 80 (“No” in S23), the voice recognition unit 122 shifts the operation to S14, but when there is an utterance by the user 80 (“Yes” in S23). ), Voice recognition processing (cancellation, power ON, advance to the next page, etc.) is performed on the sound information collected by the sound collection unit 151 (S24), and a command instructed by voice is executed. The control target device 20 is controlled (S25).

[1.4.ハードウェア構成例]
次に、図31を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図31は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
[1.4. Hardware configuration example]
Next, a hardware configuration of the information processing apparatus 10 according to the embodiment of the present disclosure will be described with reference to FIG. FIG. 31 is a block diagram illustrating a hardware configuration example of the information processing apparatus 10 according to the embodiment of the present disclosure.

図31に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。   As illustrated in FIG. 31, the information processing apparatus 10 includes a central processing unit (CPU) 901, a read only memory (ROM) 903, and a random access memory (RAM) 905. The information processing apparatus 10 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925. Furthermore, the information processing apparatus 10 may include an imaging device 933 and a sensor 935 as necessary. The information processing apparatus 10 may have a processing circuit called DSP (Digital Signal Processor) or ASIC (Application Specific Integrated Circuit) instead of or in addition to the CPU 901.

CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。   The CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or a part of the operation in the information processing apparatus 10 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927. The ROM 903 stores programs and calculation parameters used by the CPU 901. The RAM 905 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. The CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. Further, the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.

入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。   The input device 915 is a device operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. The input device 915 may include a microphone that detects the user's voice. The input device 915 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that supports the operation of the information processing device 10. The input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901. The user operates the input device 915 to input various data to the information processing device 10 or instruct a processing operation. An imaging device 933, which will be described later, can also function as an input device by imaging a user's hand movement, a user's finger, and the like. At this time, the pointing position may be determined according to the movement of the hand or the direction of the finger.

出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。   The output device 917 is configured by a device capable of visually or audibly notifying acquired information to the user. The output device 917 is, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro-Luminescence) display, a display device such as a projector, a hologram output device, an audio output device such as a speaker and headphones, As well as a printer device. The output device 917 outputs the result obtained by the processing of the information processing device 10 as a video such as text or an image, or outputs it as a sound such as voice or sound. The output device 917 may include a light or the like to brighten the surroundings.

ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。   The storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 10. The storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device. The storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.

ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。   The drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 10. The drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905. In addition, the drive 921 writes a record in the attached removable recording medium 927.

接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。   The connection port 923 is a port for directly connecting a device to the information processing apparatus 10. The connection port 923 may be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like. The connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like. Various data can be exchanged between the information processing apparatus 10 and the external connection device 929 by connecting the external connection device 929 to the connection port 923.

通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。   The communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931. The communication device 925 can be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB). The communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication. The communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example. The communication network 931 connected to the communication device 925 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, radio wave communication, or satellite communication.

撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。   The imaging device 933 uses various members such as an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and a lens for controlling the formation of a subject image on the imaging element. It is an apparatus that images a real space and generates a captured image. The imaging device 933 may capture a still image or may capture a moving image.

センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。   The sensor 935 is various sensors such as a distance measuring sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, and a sound sensor. For example, the sensor 935 acquires information about the state of the information processing apparatus 10 itself, such as the attitude of the housing of the information processing apparatus 10, and information about the surrounding environment of the information processing apparatus 10, such as brightness and noise around the information processing apparatus 10. To do. The sensor 935 may also include a GPS sensor that receives a GPS (Global Positioning System) signal and measures the latitude, longitude, and altitude of the device.

<2.むすび>
以上説明したように、本開示の実施形態によれば、操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、を備える、情報処理装置が提供される。かかる構成によれば、コマンドを実行させるための入力の柔軟性を向上させることが可能な技術が提供されることが可能となる。
<2. Conclusion>
As described above, according to the embodiment of the present disclosure, the first command acquisition unit that acquires the first command corresponding to the position of the operating tool, and the voice recognition process obtained by the voice recognition process for the sound information A second command acquisition unit that acquires a second command according to a result; and, when the first command is acquired, controls execution of the first command by a first control target device; When the second command is acquired, an information processing apparatus is provided that includes an execution control unit that controls execution of the second command by the second device to be controlled. According to such a configuration, it is possible to provide a technique capable of improving the flexibility of input for executing a command.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

例えば、上記では、第1の表示部161−1が比較的高い位置(例えば、壁、テレビジョン装置など)に表示を行うのに対し、第2の表示部161−2が比較的低い位置(例えば、ユーザの手元など)に表示を行う例を説明した。しかし、第1の表示部161−1および第2の表示部161−2それぞれによる表示位置は特に限定されない。例えば、情報処理装置10が車両の中に持ち込まれた場合、第1の表示部161−1および第2の表示部161−2の少なくとも何れか一方は、車両のダッシュボード、車両の天井面、車両のモニタなどに表示することも可能である。   For example, in the above, the first display unit 161-1 performs display on a relatively high position (for example, a wall, a television device, etc.), while the second display unit 161-2 displays a relatively low position ( For example, the example which displays on a user's hand etc. was demonstrated. However, the display positions by the first display unit 161-1 and the second display unit 161-2 are not particularly limited. For example, when the information processing apparatus 10 is brought into a vehicle, at least one of the first display unit 161-1 and the second display unit 161-2 includes a vehicle dashboard, a vehicle ceiling surface, It can also be displayed on a vehicle monitor or the like.

また、表示位置に優先順位を付けてもよい。例えば、ユーザ80の手の位置に応じた領域(例えば、テーブル面)が乱雑である場合に、第2の表示部161−2がそのままユーザ80の手の位置に応じた領域を表示位置としてしまうと、視認しづらい表示が行われてしまう可能性がある。かかる場合には、第1の表示部161−1が、ユーザ80の手の位置に応じた領域の代わりに、壁面などに表示を行うようにしてもよい。   Moreover, you may give a priority to a display position. For example, when an area (for example, a table surface) according to the position of the user's 80 hand is messy, the second display unit 161-2 directly uses the area according to the position of the user's 80 hand as the display position. In such a case, a display that is difficult to visually recognize may be performed. In such a case, the first display unit 161-1 may perform display on a wall surface or the like instead of the area corresponding to the position of the user 80's hand.

また、第1の表示部161−1および第2の表示部161−2の少なくともいずれか一方は、ユーザ80による視認性を向上させるため、表示位置の色に合わせて表示色を変えるようにしてもよい。   In addition, at least one of the first display unit 161-1 and the second display unit 161-2 is configured to change the display color according to the color of the display position in order to improve the visibility by the user 80. Also good.

また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部120が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。   In addition, it is possible to create a program for causing hardware such as a CPU, ROM, and RAM incorporated in a computer to exhibit functions equivalent to the functions of the control unit 120 described above. Also, a computer-readable recording medium that records the program can be provided.

なお、上述した情報処理装置10の動作が実現されれば、各構成の位置は特に限定されない。具体的な一例として、画像解析部121、音声認識部122およびコマンド認識部123などは、外部ネットワーク30を介して接続された図示しないサーバなどに設けられてもよい。この場合には、制御部120が当該サーバに外部ネットワーク30を介して接続されたクライアントに相当し得る。画像解析部121、音声認識部122およびコマンド認識部123などは、別々のサーバに設けられていてもよい。   Note that the position of each component is not particularly limited as long as the operation of the information processing apparatus 10 described above is realized. As a specific example, the image analysis unit 121, the voice recognition unit 122, the command recognition unit 123, and the like may be provided in a server (not illustrated) connected via the external network 30. In this case, the control unit 120 may correspond to a client connected to the server via the external network 30. The image analysis unit 121, the voice recognition unit 122, the command recognition unit 123, and the like may be provided in separate servers.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。   Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、
を備える、情報処理装置。
(2)
前記第1のコマンド取得部は、前記操作体の位置との間で所定の関係を満たす表示オブジェクトの位置が検出された場合、前記表示オブジェクトに応じた前記第1のコマンドを取得する、
前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、
前記表示オブジェクトの表示を制御する表示制御部を備える、
前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、ユーザの位置に応じた領域への前記表示オブジェクトの表示を制御する、
前記(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記表示オブジェクトの種類に応じて、前記表示オブジェクトの表示位置を異ならせる、
前記(3)または(4)に記載の情報処理装置。
(6)
前記第1のコマンド取得部は、前記操作体の位置との間で前記所定の関係を満たす前記表示オブジェクトの位置が検出された場合、かつ、所定のコマンド決定操作が検出された場合、前記表示オブジェクトに応じた前記第1のコマンドを取得する、
前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記所定のコマンド決定操作は、前記操作体が所定の位置から見て遠ざかる方向に移動することを含む、
前記(6)に記載の情報処理装置。
(8)
前記所定のコマンド決定操作は、前記操作体が前記所定の位置から見て遠ざかる方向に所定の速さを超えた速さで移動することを含む、
前記(7)に記載の情報処理装置。
(9)
前記所定のコマンド決定操作は、前記操作体が前記所定の位置から見て遠ざかる方向に所定の距離を超えた距離だけ前記所定の速さを超えた速さで移動することを含む、
前記(8)に記載の情報処理装置。
(10)
前記第2のコマンド取得部は、前記操作体の位置との間で所定の関係を満たす表示オブジェクトの位置が検出されない場合、前記音声認識処理結果に応じた前記第2のコマンドを取得する、
前記(1)に記載の情報処理装置。
(11)
前記情報処理装置は、
前記操作体の位置との間で前記所定の関係を満たす前記表示オブジェクトの位置が検出された場合、かつ、前記所定のコマンド決定操作が検出されない場合、かつ、前記音声認識処理結果が前記表示オブジェクトに対応することが検出された場合、前記表示オブジェクトおよび前記音声認識処理結果に応じた第3のコマンドを取得する第3のコマンド取得部を備える、
前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(12)
前記実行制御部は、前記第3のコマンドが取得された場合、前記第3のコマンドの第3の制御対象機器による実行を制御する、
前記(11)に記載の情報処理装置。
(13)
前記情報処理装置は、
撮像部によって撮像された画像に対する画像解析によって前記操作体の位置を得る画像解析部を備える、
前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記情報処理装置は、
前記操作体の位置に基づいて前記第1のコマンドを認識するとともに、前記音声認識処理結果に基づいて前記第2のコマンドを認識するコマンド認識部を備える、
前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記情報処理装置は、
前記音情報に対する音声認識処理により前記音声認識処理結果を得る音声認識部を備える、
前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記操作体は、前記ユーザの手を含む、
前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記第1のコマンド取得部は、前記ユーザの手が開かれた状態において前記ユーザの手が移動された場合には、現在表示されているページが属するページ群のトップページに表示を切り替えるためのコマンドを前記第1のコマンドとして取得する、
前記(16)に記載の情報処理装置。
(18)
前記第1のコマンド取得部は、前記ユーザの手のうち人差し指と小指とが開かれ、かつ、親指と中指と薬指とが閉じられた状態において前記ユーザの手が移動された場合には、現在表示されているページの次のページに表示を切り替えるためのコマンドを前記第1のコマンドとして取得する、
前記(16)または(17)に記載の情報処理装置。
(19)
コンピュータにより操作体の位置に応じた第1のコマンドを取得することと、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得することと、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御することと、
を含む、情報処理方法。
(20)
コンピュータを、
操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、
を備える情報処理装置として機能させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A first command acquisition unit that acquires a first command according to the position of the operating body;
A second command acquisition unit for acquiring a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. An execution control unit that controls execution by the target device;
An information processing apparatus comprising:
(2)
The first command acquisition unit acquires the first command according to the display object when the position of the display object satisfying a predetermined relationship with the position of the operation body is detected.
The information processing apparatus according to (1).
(3)
The information processing apparatus includes:
A display control unit for controlling display of the display object;
The information processing apparatus according to (2).
(4)
The display control unit controls display of the display object in an area according to a position of a user;
The information processing apparatus according to (3).
(5)
The display control unit varies the display position of the display object according to the type of the display object.
The information processing apparatus according to (3) or (4).
(6)
The first command acquisition unit is configured to display the display when a position of the display object that satisfies the predetermined relationship with a position of the operating body is detected, and when a predetermined command determination operation is detected. Obtaining the first command according to an object;
The information processing apparatus according to any one of (2) to (5).
(7)
The predetermined command determining operation includes moving the operating body in a direction away from a predetermined position.
The information processing apparatus according to (6).
(8)
The predetermined command determination operation includes moving the operating body at a speed exceeding a predetermined speed in a direction away from the predetermined position.
The information processing apparatus according to (7).
(9)
The predetermined command determination operation includes moving the operating body at a speed exceeding the predetermined speed by a distance exceeding a predetermined distance in a direction away from the predetermined position.
The information processing apparatus according to (8).
(10)
The second command acquisition unit acquires the second command according to the voice recognition processing result when the position of the display object satisfying a predetermined relationship with the position of the operation body is not detected.
The information processing apparatus according to (1).
(11)
The information processing apparatus includes:
When the position of the display object satisfying the predetermined relationship with the position of the operating body is detected, and when the predetermined command determination operation is not detected, and the voice recognition processing result is the display object A third command acquisition unit that acquires a third command according to the display object and the voice recognition processing result,
The information processing apparatus according to any one of (2) to (5).
(12)
The execution control unit controls execution of the third command by a third control target device when the third command is acquired.
The information processing apparatus according to (11).
(13)
The information processing apparatus includes:
An image analysis unit that obtains the position of the operating body by image analysis on an image captured by the imaging unit;
The information processing apparatus according to any one of (1) to (12).
(14)
The information processing apparatus includes:
A command recognizing unit for recognizing the first command based on the position of the operating body and recognizing the second command based on the voice recognition processing result;
The information processing apparatus according to any one of (1) to (13).
(15)
The information processing apparatus includes:
A speech recognition unit that obtains the speech recognition processing result by speech recognition processing on the sound information;
The information processing apparatus according to any one of (1) to (14).
(16)
The operation body includes the user's hand,
The information processing apparatus according to any one of (1) to (15).
(17)
The first command acquisition unit is configured to switch a display to a top page of a page group to which a currently displayed page belongs when the user's hand is moved in a state where the user's hand is opened. Obtaining a command as the first command;
The information processing apparatus according to (16).
(18)
The first command acquisition unit is configured to display the current command when the index finger and pinky finger of the user's hand are opened and the user's hand is moved with the thumb, middle finger, and ring finger closed. A command for switching display to the next page of the displayed page is acquired as the first command;
The information processing apparatus according to (16) or (17).
(19)
Obtaining a first command corresponding to the position of the operating body by a computer;
Obtaining a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. Controlling execution by the target device;
Including an information processing method.
(20)
Computer
A first command acquisition unit that acquires a first command according to the position of the operating body;
A second command acquisition unit for acquiring a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. An execution control unit that controls execution by the target device;
A program for causing an information processing apparatus to function.

10 情報処理装置
20 制御対象機器
30 外部ネットワーク
80 ユーザ
111 音出力部
112 撮像部
113 距離検出部
120 制御部
121 画像解析部
122 音声認識部
123 コマンド認識部
124 第1のコマンド取得部
125 第2のコマンド取得部
126 第3のコマンド取得部
127 実行制御部
128 表示制御部
130 第1の記憶部
140 通信部
151 集音部
161 表示部
230 第2の記憶部
330 第3の記憶部


DESCRIPTION OF SYMBOLS 10 Information processing apparatus 20 Control object apparatus 30 External network 80 User 111 Sound output part 112 Imaging part 113 Distance detection part 120 Control part 121 Image analysis part 122 Voice recognition part 123 Command recognition part 124 1st command acquisition part 125 2nd Command acquisition unit 126 Third command acquisition unit 127 Execution control unit 128 Display control unit 130 First storage unit 140 Communication unit 151 Sound collection unit 161 Display unit 230 Second storage unit 330 Third storage unit


Claims (20)

操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、
を備える、情報処理装置。
A first command acquisition unit that acquires a first command according to the position of the operating body;
A second command acquisition unit for acquiring a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. An execution control unit that controls execution by the target device;
An information processing apparatus comprising:
前記第1のコマンド取得部は、前記操作体の位置との間で所定の関係を満たす表示オブジェクトの位置が検出された場合、前記表示オブジェクトに応じた前記第1のコマンドを取得する、
請求項1に記載の情報処理装置。
The first command acquisition unit acquires the first command according to the display object when the position of the display object satisfying a predetermined relationship with the position of the operation body is detected.
The information processing apparatus according to claim 1.
前記情報処理装置は、
前記表示オブジェクトの表示を制御する表示制御部を備える、
請求項2に記載の情報処理装置。
The information processing apparatus includes:
A display control unit for controlling display of the display object;
The information processing apparatus according to claim 2.
前記表示制御部は、ユーザの位置に応じた領域への前記表示オブジェクトの表示を制御する、
請求項3に記載の情報処理装置。
The display control unit controls display of the display object in an area according to a position of a user;
The information processing apparatus according to claim 3.
前記表示制御部は、前記表示オブジェクトの種類に応じて、前記表示オブジェクトの表示位置を異ならせる、
請求項3または4に記載の情報処理装置。
The display control unit varies the display position of the display object according to the type of the display object.
The information processing apparatus according to claim 3 or 4.
前記第1のコマンド取得部は、前記操作体の位置との間で前記所定の関係を満たす前記表示オブジェクトの位置が検出された場合、かつ、所定のコマンド決定操作が検出された場合、前記表示オブジェクトに応じた前記第1のコマンドを取得する、
請求項2〜5のいずれか一項に記載の情報処理装置。
The first command acquisition unit is configured to display the display when a position of the display object that satisfies the predetermined relationship with a position of the operating body is detected, and when a predetermined command determination operation is detected. Obtaining the first command according to an object;
The information processing apparatus according to any one of claims 2 to 5.
前記所定のコマンド決定操作は、前記操作体が所定の位置から見て遠ざかる方向に移動することを含む、
請求項6に記載の情報処理装置。
The predetermined command determining operation includes moving the operating body in a direction away from a predetermined position.
The information processing apparatus according to claim 6.
前記所定のコマンド決定操作は、前記操作体が前記所定の位置から見て遠ざかる方向に所定の速さを超えた速さで移動することを含む、
請求項7に記載の情報処理装置。
The predetermined command determination operation includes moving the operating body at a speed exceeding a predetermined speed in a direction away from the predetermined position.
The information processing apparatus according to claim 7.
前記所定のコマンド決定操作は、前記操作体が前記所定の位置から見て遠ざかる方向に所定の距離を超えた距離だけ前記所定の速さを超えた速さで移動することを含む、
請求項8に記載の情報処理装置。
The predetermined command determination operation includes moving the operating body at a speed exceeding the predetermined speed by a distance exceeding a predetermined distance in a direction away from the predetermined position.
The information processing apparatus according to claim 8.
前記第2のコマンド取得部は、前記操作体の位置との間で所定の関係を満たす表示オブジェクトの位置が検出されない場合、前記音声認識処理結果に応じた前記第2のコマンドを取得する、
請求項1に記載の情報処理装置。
The second command acquisition unit acquires the second command according to the voice recognition processing result when the position of the display object satisfying a predetermined relationship with the position of the operation body is not detected.
The information processing apparatus according to claim 1.
前記情報処理装置は、
前記操作体の位置との間で前記所定の関係を満たす前記表示オブジェクトの位置が検出された場合、かつ、前記所定のコマンド決定操作が検出されない場合、かつ、前記音声認識処理結果が前記表示オブジェクトに対応することが検出された場合、前記表示オブジェクトおよび前記音声認識処理結果に応じた第3のコマンドを取得する第3のコマンド取得部を備える、
請求項2〜5のいずれか一項に記載の情報処理装置。
The information processing apparatus includes:
When the position of the display object satisfying the predetermined relationship with the position of the operating body is detected, and when the predetermined command determination operation is not detected, and the voice recognition processing result is the display object A third command acquisition unit that acquires a third command according to the display object and the voice recognition processing result,
The information processing apparatus according to any one of claims 2 to 5.
前記実行制御部は、前記第3のコマンドが取得された場合、前記第3のコマンドの第3の制御対象機器による実行を制御する、
請求項11に記載の情報処理装置。
The execution control unit controls execution of the third command by a third control target device when the third command is acquired.
The information processing apparatus according to claim 11.
前記情報処理装置は、
撮像部によって撮像された画像に対する画像解析によって前記操作体の位置を得る画像解析部を備える、
請求項1〜12のいずれか一項に記載の情報処理装置。
The information processing apparatus includes:
An image analysis unit that obtains the position of the operating body by image analysis on an image captured by the imaging unit;
The information processing apparatus according to any one of claims 1 to 12.
前記情報処理装置は、
前記操作体の位置に基づいて前記第1のコマンドを認識するとともに、前記音声認識処理結果に基づいて前記第2のコマンドを認識するコマンド認識部を備える、
請求項1〜13のいずれか一項に記載の情報処理装置。
The information processing apparatus includes:
A command recognition unit that recognizes the first command based on the position of the operating body and recognizes the second command based on the voice recognition processing result.
The information processing apparatus according to any one of claims 1 to 13.
前記情報処理装置は、
前記音情報に対する音声認識処理により前記音声認識処理結果を得る音声認識部を備える、
請求項1〜14のいずれか一項に記載の情報処理装置。
The information processing apparatus includes:
A speech recognition unit that obtains the speech recognition processing result by speech recognition processing on the sound information;
The information processing apparatus according to any one of claims 1 to 14.
前記操作体は、前記ユーザの手を含む、
請求項1〜15のいずれか一項に記載の情報処理装置。
The operation body includes the user's hand,
The information processing apparatus according to any one of claims 1 to 15.
前記第1のコマンド取得部は、前記ユーザの手が開かれた状態において前記ユーザの手が移動された場合には、現在表示されているページが属するページ群のトップページに表示を切り替えるためのコマンドを前記第1のコマンドとして取得する、
請求項16に記載の情報処理装置。
The first command acquisition unit is configured to switch a display to a top page of a page group to which a currently displayed page belongs when the user's hand is moved in a state where the user's hand is opened. Obtaining a command as the first command;
The information processing apparatus according to claim 16.
前記第1のコマンド取得部は、前記ユーザの手のうち人差し指と小指とが開かれ、かつ、親指と中指と薬指とが閉じられた状態において前記ユーザの手が移動された場合には、現在表示されているページの次のページに表示を切り替えるためのコマンドを前記第1のコマンドとして取得する、
請求項16または17に記載の情報処理装置。
The first command acquisition unit is configured to display the current command when the index finger and pinky finger of the user's hand are opened and the user's hand is moved with the thumb, middle finger and ring finger closed. A command for switching display to the next page of the displayed page is acquired as the first command;
The information processing apparatus according to claim 16 or 17.
コンピュータにより操作体の位置に応じた第1のコマンドを取得することと、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得することと、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御することと、
を含む、情報処理方法。
Obtaining a first command corresponding to the position of the operating body by a computer;
Obtaining a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. Controlling execution by the target device;
Including an information processing method.
コンピュータを、
操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、
を備える情報処理装置として機能させるためのプログラム。

Computer
A first command acquisition unit that acquires a first command according to the position of the operating body;
A second command acquisition unit for acquiring a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. An execution control unit that controls execution by the target device;
A program for causing an information processing apparatus to function.

JP2016017747A 2016-02-02 2016-02-02 Information processing device, information processing method and program Pending JP2017138698A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016017747A JP2017138698A (en) 2016-02-02 2016-02-02 Information processing device, information processing method and program
PCT/JP2016/081360 WO2017134868A1 (en) 2016-02-02 2016-10-21 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016017747A JP2017138698A (en) 2016-02-02 2016-02-02 Information processing device, information processing method and program

Publications (1)

Publication Number Publication Date
JP2017138698A true JP2017138698A (en) 2017-08-10

Family

ID=59499664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016017747A Pending JP2017138698A (en) 2016-02-02 2016-02-02 Information processing device, information processing method and program

Country Status (2)

Country Link
JP (1) JP2017138698A (en)
WO (1) WO2017134868A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019091006A (en) * 2017-11-16 2019-06-13 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Voice interactive method, device, terminal, server and readable storage medium
JP2021523456A (en) * 2018-05-07 2021-09-02 グーグル エルエルシーGoogle LLC Methods, systems and equipment for providing synthetic graphical assistant interfaces for controlling connected devices

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7030863B2 (en) * 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
JP2015053020A (en) * 2013-09-09 2015-03-19 株式会社リコー Information display device, information display method, and program
JP6192104B2 (en) * 2013-09-13 2017-09-06 国立研究開発法人情報通信研究機構 Text editing apparatus and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019091006A (en) * 2017-11-16 2019-06-13 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Voice interactive method, device, terminal, server and readable storage medium
US10811010B2 (en) 2017-11-16 2020-10-20 Baidu Online Network Technology (Beijing) Co., Ltd. Voice interaction method and apparatus, terminal, server and readable storage medium
JP7026020B2 (en) 2017-11-16 2022-02-25 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Voice dialogue methods, devices, terminals, servers, readable storage media and programs
JP2021523456A (en) * 2018-05-07 2021-09-02 グーグル エルエルシーGoogle LLC Methods, systems and equipment for providing synthetic graphical assistant interfaces for controlling connected devices
JP7155294B2 (en) 2018-05-07 2022-10-18 グーグル エルエルシー Methods, systems and apparatus for providing a synthetic graphical assistant interface for controlling connected devices

Also Published As

Publication number Publication date
WO2017134868A1 (en) 2017-08-10

Similar Documents

Publication Publication Date Title
JP6428954B2 (en) Information processing apparatus, information processing method, and program
JP6044079B2 (en) Information processing apparatus, information processing method, and program
JP5316387B2 (en) Information processing apparatus, display method, and program
WO2021104236A1 (en) Method for sharing photographing parameter, and electronic apparatus
US11170580B2 (en) Information processing device, information processing method, and recording medium
WO2017130486A1 (en) Information processing device, information processing method, and program
KR20170064242A (en) Method and Electronic Apparatus for Providing Video Call
JP6729555B2 (en) Information processing system and information processing method
WO2013145673A1 (en) Information processing apparatus, information processing method, and program
JPWO2017061149A1 (en) Information processing apparatus, information processing method, and program
WO2016152200A1 (en) Information processing system and information processing method
WO2014034256A1 (en) Display control apparatus, display control system, and display control method
US9179031B2 (en) Content acquisition apparatus and storage medium
CN111464746B (en) Photographing method and electronic equipment
JP6627775B2 (en) Information processing apparatus, information processing method and program
JP6575518B2 (en) Display control apparatus, display control method, and program
JP2016109726A (en) Information processing device, information processing method and program
WO2017134868A1 (en) Information processing device, information processing method and program
JP2019023902A (en) Program and information processing device
JP2016156877A (en) Information processing device, information processing method, and program
WO2017033544A1 (en) Information processing device, information processing method, and program
WO2017187677A1 (en) Information processing device, information processing method, and program
JP2016180778A (en) Information processing system and information processing method
WO2018179972A1 (en) Information processing apparatus, information processing method, and program
US20240284041A1 (en) Information processing apparatus and information processing method