JP2017138698A - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP2017138698A JP2017138698A JP2016017747A JP2016017747A JP2017138698A JP 2017138698 A JP2017138698 A JP 2017138698A JP 2016017747 A JP2016017747 A JP 2016017747A JP 2016017747 A JP2016017747 A JP 2016017747A JP 2017138698 A JP2017138698 A JP 2017138698A
- Authority
- JP
- Japan
- Prior art keywords
- command
- information processing
- processing apparatus
- display
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法およびプログラムに関する。 The present disclosure relates to an information processing apparatus, an information processing method, and a program.
近年、2種類の入力を用いて所望の動作を実行する情報処理装置が存在する(例えば、特許文献1参照)。かかる情報処理装置においては、2種類の入力として、音情報の入力と操作体の位置の入力とが用いられる。そして、かかる情報処理装置においては、音情報から音声が認識され、画像から操作体の位置が認識され、音声と操作体の位置との組み合わせにより、制御対象機器に所望の動作を実行させるためのコマンドが生成される。 In recent years, there is an information processing apparatus that performs a desired operation using two types of inputs (see, for example, Patent Document 1). In such an information processing apparatus, input of sound information and input of the position of the operating tool are used as two types of inputs. In such an information processing apparatus, the sound is recognized from the sound information, the position of the operating body is recognized from the image, and the control target device is caused to execute a desired operation by a combination of the sound and the position of the operating body. A command is generated.
しかし、音情報の入力によって実行されるのが適しているコマンドもあれば、操作体の位置の入力によって実行されるのが適しているコマンドもある。そこで、コマンドを実行させるための入力の柔軟性を向上させることが可能な技術が提供されることが望まれる。 However, some commands are suitable to be executed by inputting sound information, and others are suitable to be executed by inputting the position of the operating body. Therefore, it is desired to provide a technique capable of improving the flexibility of input for executing a command.
本開示によれば、操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、を備える、情報処理装置が提供される。 According to the present disclosure, the first command acquisition unit that acquires the first command corresponding to the position of the operating tool, and the second command that corresponds to the voice recognition processing result obtained by the voice recognition processing for the sound information. When the second command acquisition unit to acquire and the first command are acquired, the execution of the first command by the first device to be controlled is controlled, and when the second command is acquired, And an execution control unit that controls execution of the second command by a second device to be controlled.
本開示によれば、コンピュータにより操作体の位置に応じた第1のコマンドを取得することと、音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得することと、前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御することと、を含む、情報処理方法が提供される。 According to the present disclosure, the first command corresponding to the position of the operating tool is acquired by the computer, and the second command corresponding to the voice recognition processing result obtained by the voice recognition processing for the sound information is acquired. When the first command is acquired, the execution of the first command by the first device to be controlled is controlled, and when the second command is acquired, the second of the second command is controlled. An information processing method is provided, including controlling execution by a device to be controlled.
本開示によれば、コンピュータを、操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。 According to the present disclosure, the computer uses the first command acquisition unit that acquires the first command according to the position of the operating tool, and the second according to the voice recognition processing result obtained by the voice recognition processing for the sound information. A second command acquisition unit for acquiring the first command, and when the first command is acquired, execution of the first command by the first control target device is controlled, and the second command is acquired. In this case, there is provided a program for causing an information processing apparatus to include an execution control unit that controls execution of the second command by the second control target device.
以上説明したように本開示によれば、コマンドを実行させるための入力の柔軟性を向上させることが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 As described above, according to the present disclosure, a technique capable of improving the flexibility of input for executing a command is provided. Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 In the present specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different numerals after the same reference numerals. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.
なお、説明は以下の順序で行うものとする。
1.本開示の実施形態
1.1.システム構成例
1.2.機能構成例
1.3.通信システムの機能詳細
1.4.ハードウェア構成例
2.むすび
The description will be made in the following order.
1. Embodiment of the present disclosure 1.1. System configuration example 1.2. Functional configuration example 1.3. Functional details of communication system 1.4. 1. Hardware configuration example Conclusion
<1.本開示の実施形態>
[1.1.システム構成例]
まず、図面を参照しながら本開示の一実施形態に係る通信システムの構成例について説明する。図1は、本開示の一実施形態に係る通信システムの構成例を示す図である。図1に示したように、本実施形態に係る通信システムは、情報処理装置10および制御対象機器20(制御対象機器20−1〜20−4)を備える。情報処理装置10は、音出力部111、集音部151、撮像部112、距離検出部113、表示部161(第1の表示部161−1および第2の表示部161−2)を有している。
<1. Embodiment of the present disclosure>
[1.1. System configuration example]
First, a configuration example of a communication system according to an embodiment of the present disclosure will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of a communication system according to an embodiment of the present disclosure. As illustrated in FIG. 1, the communication system according to the present embodiment includes an
情報処理装置10と制御対象機器20とは、通信ネットワークを介して通信を行うことが可能である。また、情報処理装置10において、音出力部111、集音部151、撮像部112、距離検出部113、表示部161(第1の表示部161−1および第2の表示部161−2)は、情報処理装置10における同一の面上に設けられているが、これらが設けられる位置は限定されない(例えば、これらは情報処理装置10における異なる面上に設けられていてもよい)。
The
なお、図1には、制御対象機器20の例として、制御対象機器(テレビジョン装置)20−1、制御対象機器(レコーダ)20−2、制御対象機器(空調機)20−3および制御対象機器(コーヒーメーカ)20−4が示されているが、制御対象機器20の種類および数は限定されない。例えば、制御対象機器20は、外部からコマンドを受け付けて、そのコマンドを実行することが可能な機器であればよい。
In FIG. 1, as an example of the
また、図1には、表示部161の例として、2つのプロジェクタが示されているが、表示部161の種類および数も限定されない。例えば、表示部161は、ユーザ80に視認可能な表示を行うことが可能なディスプレイであればよい。また、本実施形態においては、第1の表示部161−1が比較的高い位置(例えば、壁、テレビジョン装置など)に表示を行うのに対し、第2の表示部161−2が比較的低い位置(例えば、ユーザの手元など)に表示を行う例を説明するが、表示部161が表示を行う位置も限定されない。
In FIG. 1, two projectors are shown as examples of the display unit 161, but the type and number of the display units 161 are not limited. For example, the display unit 161 may be a display capable of performing display visible to the
また、以下の説明において、音声(voiceまたはspeech)と音(sound)とは区別して用いられる。すなわち、音声(voiceまたはspeech)は、集音部151によって集音された音のうち、主にユーザ80の発話を示すのに対し、音(sound)は、ユーザ80の発話の他、物音などを含む。
Further, in the following description, voice (voice or speech) and sound are used separately. That is, the voice (voice or speech) mainly indicates the utterance of the
以上、本実施形態に係る通信システムの構成例について説明した。 The configuration example of the communication system according to the present embodiment has been described above.
[1.2.機能構成例]
続いて、本実施形態に係る通信システムの機能構成例について説明する。図2は、本実施形態に係る通信システムの機能構成例を示すブロック図である。図2に示したように、通信システムは、情報処理装置10、制御対象機器20、外部ネットワーク30および第3の記憶部330を備える。
[1.2. Functional configuration example]
Subsequently, a functional configuration example of the communication system according to the present embodiment will be described. FIG. 2 is a block diagram illustrating a functional configuration example of the communication system according to the present embodiment. As illustrated in FIG. 2, the communication system includes the
外部ネットワーク30は、例えば、インターネットにより構成される。第3の記憶部330は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。制御対象機器20は、上記したように、空調機、テレビジョン装置、レコーダおよびコーヒーメーカであってもよい。また、図2に示すように、制御対象機器20は、第2の記憶部230を備えていてよい。第2の記憶部230は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。
The
情報処理装置10は、上記した音出力部111、集音部151、撮像部112、距離検出部113、表示部161(第1の表示部161−1および第2の表示部161−2)の他、通信部140、制御部120および第1の記憶部130を備える。
The
音出力部111は、音を出力する機能を有する。例えば、音出力部111は、スピーカを含んでおり、スピーカによって音を出力する。音出力部111に含まれるスピーカの数は1以上であれば特に限定されない。そして、音出力部111に含まれる1以上のスピーカそれぞれが設けられる位置も特に限定されない。なお、音出力部111は、音情報を出力する機能を有すれば、スピーカ以外の形態の音出力装置を含んでもよい。
The
集音部151は、集音によって音情報を得る機能を有する。例えば、集音部151は、マイクロフォンを含んでおり、マイクロフォンによって音情報を集音する。集音部151に含まれるマイクロフォンの数は1以上であれば特に限定されない。そして、集音部151に含まれる1以上のマイクロフォンそれぞれが設けられる位置も特に限定されない。なお、集音部151は、音情報を集音する機能を有すれば、マイクロフォン以外の形態の集音装置を含んでもよい。
The
撮像部112は、撮像により画像を入力する機能を有する。例えば、撮像部112はカメラを含んでおり、カメラによって撮像された画像を入力する。撮像部112に含まれるカメラの数は1以上であれば特に限定されない。そして、撮像部112に含まれる1以上のカメラそれぞれが設けられる位置も特に限定されない。また、1以上のカメラには、単眼カメラが含まれてもよいし、ステレオカメラが含まれてもよい。
The
距離検出部113は、ユーザ80までの距離を検出する機能を有する。例えば、距離検出部113は測距センサを含んでおり、測距センサによって検出されたユーザ80までの距離を取得する。測距センサが設けられる位置は特に限定されない。また、測距センサの種類は特に限定されない。例えば、距離センサは、赤外線距離センサであってもよいし、超音波距離センサであってもよい。
The
通信部140は、外部ネットワーク30を介して第3の記憶部330からのデータの取得および第3の記憶部330へのデータの書き込みを行う機能を有する。例えば、通信部140は、通信インターフェースにより構成される。なお、通信部140は、第3の記憶部330の他に、第3の記憶部330とは異なる装置との間で外部ネットワーク30を介して通信が可能であってもよい。
The
第1の記憶部130は、制御部120によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする。また、第1の記憶部130は、制御部120による演算のためにデータを一時的に記憶する。第1の記憶部130は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。
The
表示部161(第1の表示部161−1および第2の表示部161−2)は、画面を表示する機能を有する。例えば、表示部161(第1の表示部161−1および第2の表示部161−2)は、図1に示したようにプロジェクタであってもよいし、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよい。しかし、表示部161(第1の表示部161−1および第2の表示部161−2)は、画面を表示する機能を有すれば、他の形態のディスプレイであってもよい。 The display unit 161 (the first display unit 161-1 and the second display unit 161-2) has a function of displaying a screen. For example, the display unit 161 (the first display unit 161-1 and the second display unit 161-2) may be a projector or a liquid crystal display as shown in FIG. An organic EL (Electro-Luminescence) display may be used. However, the display unit 161 (the first display unit 161-1 and the second display unit 161-2) may be a display of another form as long as it has a function of displaying a screen.
制御部120は、情報処理装置10の各部の制御を実行する。図3に示したように、制御部120は、画像解析部121、音声認識部122、コマンド認識部123、第1のコマンド取得部124、第2のコマンド取得部125、第3のコマンド取得部126、実行制御部127および表示制御部128を備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部120は、例えば、CPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。制御部120がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
The
以上、本実施形態に係る通信システムの機能構成例について説明した。 The function configuration example of the communication system according to the present embodiment has been described above.
[1.3.通信システムの機能詳細]
続いて、通信システムの機能詳細について説明する。ここで、制御対象機器20によって実行されるコマンドとして、音情報の入力によって実行されるのが適しているコマンドもあれば、操作体(以下、「ユーザ80の手」として主に説明する。)の位置の入力によって実行されるのが適しているコマンドもある。
[1.3. Functional details of communication system]
Subsequently, the functional details of the communication system will be described. Here, as a command executed by the
具体的に、テレビジョン装置の音量を上げるためのコマンド、空調機の電源を入れるためのコマンドなどの単純なコマンド(ユーザ80による選択自由度がより低いコマンド)は、ユーザ80の手の位置の入力によって実行されるのが適している。単純なコマンドがユーザ80の手の位置の入力によって実行される場合には、各コマンドに対応する表示オブジェクト(以下、「ボタン」とも言う。)の数が少なくて済むからというのが一つの原因として挙げられる。
Specifically, simple commands (commands with a lower degree of freedom of selection by the user 80) such as a command for raising the volume of the television device and a command for turning on the air conditioner are used for the position of the
一方、検索キーワードの入力、番組名の入力などの複雑なコマンド(ユーザ80による選択自由度がより高いコマンド)は、音情報の入力によって実行されるのが適している。複雑なコマンドがユーザ80の手の位置の入力によって実行される場合には、各コマンドに対応するボタンの数が多くなってしまうというのが一つの原因として挙げられる。
On the other hand, it is suitable to execute complicated commands (commands with a higher degree of freedom of selection by the user 80) such as search keyword input and program name input by inputting sound information. When a complicated command is executed by inputting the hand position of the
そこで、本実施形態においては、コマンドを実行させるための入力の柔軟性を向上させることが可能な技術を主に提案する。 Therefore, in this embodiment, a technique that can improve the flexibility of input for executing a command is mainly proposed.
具体的には、画像解析部121は、撮像部112によって撮像された画像に対する画像解析によってユーザ80の手の位置を得る。また、音声認識部122は、音情報に対する音声認識処理により音声認識処理結果を得る。そして、コマンド認識部123は、ユーザ80の手の位置に基づいてコマンド(第1のコマンド)を認識するとともに、音声認識処理結果に基づいてコマンド(第2のコマンド)を認識する。第1のコマンド取得部124は、第1のコマンドを取得し、第2のコマンド取得部125は、第2のコマンドを取得する。
Specifically, the
実行制御部127は、第1のコマンド取得部124によって第1のコマンドが取得された場合、第1のコマンドの制御対象機器20による実行を制御する。一方、実行制御部127は、第2のコマンド取得部125によって第2のコマンドが取得された場合、第2のコマンドの制御対象機器20による実行を制御する。かかる構成により、コマンドを実行させるための入力の柔軟性を向上させることが可能となる。
When the first
以下、具体例を参照する。図4および図5は、テレビジョン装置(制御対象機器20−1)の電源を入れる動作の例を説明するための図である。まず、ユーザ80はテレビジョン装置(制御対象機器20−1)を観たいと考えた場合、図4に示すように、「TVのコントローラ」と発話する。ユーザ80がこのように発話すると、情報処理装置10の集音部151は、ユーザ80の発話を含む音情報を集音し、音声認識部122は、音情報に対する音声認識処理により音声認識処理結果「TVのコントローラ」を得る。ここで、音声とコマンドとはあらかじめ関連付けられた情報として登録されている。そのため、コマンド認識部123は、あらかじめ関連付けられた情報を参照して、音声認識処理結果「TVのコントローラ」からコマンド「TVのコントローラの表示」を認識する。
Hereinafter, specific examples will be referred to. 4 and 5 are diagrams for describing an example of an operation of turning on the power of the television device (control target device 20-1). First, when the
そして、第2のコマンド取得部125は、コマンド「TVのコントローラの表示」を取得し、表示制御部128は、第2のコマンド取得部125によってコマンド「TVのコントローラの表示」が取得されたため、コマンド「TVのコントローラの表示」を制御する。図4には、TVのコントローラが、コマンド受付画面30−1として表示されている。コマンド受付画面30−1には、各コマンドに対応するボタンが含まれている。
The second
このとき、図4に示したように、表示制御部128は、ユーザ80の位置に応じた領域へのコマンド受付画面30−1の表示を制御するのがよい。そうすれば、ユーザ80は、実行させたいと考えるコマンドに対応するボタンを押下しやすくなる。ユーザ80の位置に応じた領域は特に限定されないが、ユーザ80の手の届く範囲内であればよい。
At this time, as shown in FIG. 4, the
あるいは、TVにコマンドを実行させる場合には、ユーザ80がTVからあまり目を離したくないと考えている場合もあり得る。したがって、表示制御部128は、制御対象機器20−1の位置に応じた領域(例えば、制御対象機器20−1から所定の範囲内)へのコマンド受付画面30−1の表示を制御してもよい。そうすれば、TVからあまり目を離さなくて済むようになる。
Alternatively, when causing the TV to execute a command, there may be a case where the
このように、表示制御部128は、コマンド受付画面30−1の種類に応じて、コマンド受付画面30−1の表示位置を異ならせることも可能である。しかし、コマンド受付画面30−1がユーザ80の手の届く範囲外にコマンド受付画面30−1が表示されてしまう場合には、コマンド受付画面30−1に対してジェスチャにより行う必要が生じる。
Thus, the
なお、コマンド受付画面30−1は、あらかじめ第1の記憶部130に記憶されていてもよいが、制御対象機器(TV)20−1の第2の記憶部230から情報処理装置10にダウンロードされてもよいし、外部ネットワーク30を介して外部サーバ(第3の記憶部330)から情報処理装置10にダウンロードされてもよい。
The command reception screen 30-1 may be stored in the
コマンド受付画面30−1が表示されると、ボタン押下による入力が可能となる。続いて、図5に示すように、ユーザ80がコマンド受付画面30−1における電源ボタンを押下する。コマンド認識部123は、ユーザ80の手の位置に基づいてコマンドを認識する。例えば、コマンド認識部123は、ユーザ80の手の位置との間で所定の関係を満たすボタンの位置が検出された場合、そのボタンに対応するコマンドを認識する。
When the command reception screen 30-1 is displayed, input by pressing a button becomes possible. Subsequently, as shown in FIG. 5, the
本実施形態では、一例として、コマンド認識部123が、ユーザ80の手が重なったボタンが検出された場合、そのボタンに対応するコマンドを認識する場合を主に説明する。ここでは、ユーザ80の人差し指が重なったボタンとして電源ボタンが検出され、電源ボタンに対応するコマンド「電源ON」が認識される。そして、第1のコマンド取得部124は、コマンド「電源ON」を取得する。また、図5に示すように、実行制御部127は、第1のコマンド取得部124によってコマンド「電源ON」が取得されると、制御対象機器(TV)20−1の電源が投入されるように制御対象機器(TV)20−1を制御する。
In the present embodiment, as an example, a case will be mainly described in which the
なお、ここでは、ユーザ80の手が重なったボタンが検出されることのみを契機に、そのボタンに対応するコマンドが認識される例を示した。しかし、コマンド認識部123は、ユーザ80の手が重なったボタンが検出された場合、所定のコマンド決定操作が検出された場合、そのボタンに対応するコマンドを認識してもよい。ここで、コマンド決定操作は限定されないが、ユーザ80の手が所定の位置(距離検出部113の位置)から見て遠ざかる方向に移動することを含んでもよい。ユーザ80の手の移動は、距離検出部113によって検出されればよい。
Here, an example is shown in which a command corresponding to a button is recognized only when a button with the
あるいは、コマンド決定操作は、ユーザ80の手が所定の位置(距離検出部113の位置)から見て遠ざかる方向に所定の速さを超えた速さで移動することを含んでもよい。あるいは、コマンド決定操作は、ユーザ80が所定の位置(距離検出部113の位置)から見て遠ざかる方向に所定の距離を超えた距離だけ所定の速さを超えた速さで移動することを含んでもよい。
Alternatively, the command determination operation may include moving the
図6〜図10は、レコーダ(制御対象機器20−2)に記録されている番組を再生する動作の例を説明するための図である。まず、ユーザ80はレコーダ(制御対象機器20−2)に記録されている番組リストを観たいと考えた場合、図6に示すように、「レコーダのコントローラ」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「レコーダのコントローラの表示」を制御する。図6には、レコーダのコントローラが、コマンド受付画面30−2として表示されている。
6-10 is a figure for demonstrating the example of the operation | movement which reproduces | regenerates the program currently recorded on the recorder (control object apparatus 20-2). First, when the
コマンド受付画面30−2が表示されると、ボタン押下による入力が可能となる。図7に示すように、ユーザ80がコマンド受付画面30−2における番組リスト表示ボタンを押下する。コマンド認識部123は、ユーザ80の人差し指が重なったボタンとして番組リスト表示ボタンを検出し、番組リスト表示ボタンに対応するコマンド「番組リスト表示」を認識する。そして、第1のコマンド取得部124は、コマンド「番組リスト表示」を取得する。
When the command reception screen 30-2 is displayed, input by pressing a button becomes possible. As shown in FIG. 7, the
実行制御部127は、第1のコマンド取得部124によってコマンド「番組リスト表示」が取得されると、制御対象機器(レコーダ)20−2に記録されている番組リストが制御対象機器(TV)20−1に表示されるように制御対象機器(レコーダ)20−2を制御する。図7を参照すると、番組リストが制御対象機器(TV)20−1に表示されている。
When the command “display program list” is acquired by the first
ここで、ユーザ80が番組P1の詳細を観たいと考えた場合、図8に示すように、「番組P1」と発話する。ユーザ80がこのように発話すると、情報処理装置10の集音部151は、ユーザ80の発話を含む音情報を集音し、音声認識部122は、音情報に対する音声認識処理により音声認識処理結果「番組P1」を得る。コマンド認識部123は、あらかじめ関連付けられた情報を参照して、音声認識処理結果「番組P1」からコマンド「番組P1の詳細表示」を認識する。
Here, when the
そして、第2のコマンド取得部125は、コマンド「番組P1の詳細表示」を取得し、実行制御部127は、第2のコマンド取得部125によってコマンド「番組P1の詳細表示」が取得されたため、コマンド「番組P1の詳細表示」が実行されるように制御対象機器(レコーダ)20−2を制御する。図8を参照すると、制御対象機器(レコーダ)20−2による制御に従って、制御対象機器(TV)20−1に番組P1の詳細が表示されている。
The second
コマンド認識部123によるコマンド認識の優先度は特に限定されない。すなわち、ユーザ80の手と重なるボタンに対応するコマンドの認識と、音情報から音声認識処理された音声認識処理結果に対応するコマンドの認識とは、どちらが先行されてもよい。例えば、コマンド認識部123は、ユーザ80の手と重なるボタンが検出されない場合、音声認識処理結果に対応するコマンドを認識してもよい。第2のコマンド取得部125は、かかるコマンドを取得する。
The priority of command recognition by the
この後、表示された番組リストP1のページを切り替えたいとユーザ80が考えたとする。そのとき、所定のジェスチャによってページ切り替えが可能であってよい。具体的には、図9に示すように、コマンド認識部123は、ユーザ80の手のうち人差し指と小指とが開かれ、かつ、親指と中指と薬指とが閉じられた状態においてユーザ80の手が移動された場合に、現在表示されているページの次のページに表示を切り替えるためのコマンドを認識してもよい。図9に示された例では、このようなコマンドが認識され、第1のコマンド取得部124によって取得され、実行制御部127によって次ページへの切り替えが実行制御されている。
Thereafter, it is assumed that the
そして、ユーザ80は、番組リストP1から再生対象の番組を決定するために、所定のジェスチャ(例えば、人差し指を移動させる操作など)によって画面内のポインタを再生対象の番組まで移動させてから、所定の音声(図10に示すように、「決定」など)を発すればよい。コマンド認識部123は、所定の音声が発せられると、ポインタが示す番組「コンテンツC5」と、音声「決定」とに対応するコマンド「コンテンツC5の再生」を認識し、実行制御部127は「コンテンツC5の再生」の実行を制御する。
Then, the
なお、コマンド認識部123によるコマンド認識の優先度は特に限定されない。しかし、例えば、コマンド認識部123は、ポインタと重なる番組が検出された場合、かつ、コマンド決定操作が検出されない場合、かつ、音声認識処理結果が番組に対応することが検出された場合、番組および音声認識処理結果に応じたコマンドを認識してもよい。第3のコマンド取得部126は、かかるコマンドを取得し、実行制御部127は、かかるコマンドの制御対象機器20による実行を制御する。
The priority of command recognition by the
図11〜図14は、空調機(制御対象機器20−3)を制御する動作の例を説明するための図である。まず、ユーザ80は空調機(制御対象機器20−3)を制御したいと考えた場合、図11に示すように、「空調機のコントローラ」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「空調機のコントローラの表示」を制御する。図11には、空調機のコントローラが、コマンド受付画面30−3Aとして表示されている。
FIGS. 11-14 is a figure for demonstrating the example of the operation | movement which controls an air conditioner (control object apparatus 20-3). First, when the
コマンド受付画面30−3Aが表示されると、ボタン押下による入力が可能となる。図12に示すように、ユーザ80がコマンド受付画面30−3Aにおける電源ボタンを押下する。コマンド認識部123は、ユーザ80の人差し指が重なったボタンとして電源ボタンを検出し、電源ボタンに対応するコマンド「電源ON」を認識する。そして、第1のコマンド取得部124は、コマンド「電源ON」を取得する。
When the command reception screen 30-3A is displayed, input by pressing a button becomes possible. As shown in FIG. 12, the
実行制御部127は、第1のコマンド取得部124によってコマンド「電源ON」が取得されると、空調機(制御対象機器20−3)の電源が投入されるように空調機(制御対象機器20−3)を制御する。図12を参照すると、空調機(制御対象機器20−3)の電源が投入されて、空調機(制御対象機器20−3)から風が出てきている様子が示されている。表示内容は、図13に示すように、コマンド受付画面30−3Aからコマンド受付画面30−3Bに切り替えられる。
When the command “power ON” is acquired by the first
コマンド受付画面30−3Bにおいて、ボタン押下による入力が引き続き可能である。図13に示すように、ユーザ80がコマンド受付画面30−3Bにおける気流強ボタンを押下する。コマンド認識部123は、ユーザ80の人差し指が重なったボタンとして気流強ボタンを検出し、気流強ボタンに対応するコマンド「気流強」を認識する。そして、第1のコマンド取得部124は、コマンド「気流強」を取得する。
On the command reception screen 30-3B, input by pressing a button can be continued. As shown in FIG. 13, the
実行制御部127は、第1のコマンド取得部124によってコマンド「気流強」が取得されると、空調機(制御対象機器20−3)の気流が強くなるように空調機(制御対象機器20−3)を制御する。図13を参照すると、空調機(制御対象機器20−3)の気流が強くされて、空調機(制御対象機器20−3)から強い風が出てきている様子が示されている。図14に示すように、コマンド受付画面30−3Bが表示されていた状態から、特に何も表示されない状態に切り替えられる。
When the command “strong airflow” is acquired by the first
ここで、ユーザ80が加湿モードにモードを切り替えたいと考えた場合、図14に示すように、「加湿」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、コマンド認識部123は、あらかじめ関連付けられた情報を参照して、音声認識処理結果「加湿」からコマンド「加湿モードへのモード切り替え」を認識する。
Here, when the
そして、第2のコマンド取得部125は、コマンド「加湿モードへのモード切り替え」を取得し、実行制御部127は、第2のコマンド取得部125によってコマンド「加湿モードへのモード切り替え」が取得されたため、コマンド「加湿モードへのモード切り替え」が実行されるように制御対象機器(空調機)20−3を制御する。図14を参照すると、制御対象機器(空調機)20−3のモードが加湿モードに切り替わっている。
Then, the second
図15〜図17は、制御対象機器(コーヒーメーカ)20−4を制御する動作の例を説明するための図である。まず、ユーザ80は制御対象機器(コーヒーメーカ)20−4を利用したいと考えた場合、図15に示すように、「コーヒーメーカ」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「コーヒーのリスト表示」を制御する。図15には、コーヒーのリストが、コマンド受付画面30−4として表示されている。
FIGS. 15-17 is a figure for demonstrating the example of the operation | movement which controls the control object apparatus (coffee maker) 20-4. First, when the
コマンド受付画面30−4が表示されると、ボタン押下による入力が可能となる。図16に示すように、ユーザ80が制御対象機器(コーヒーメーカ)20−4にカップCuを置き、コマンド受付画面30−4におけるカプチーノを押下する。コマンド認識部123は、ユーザ80の人差し指が重なったボタンとしてカプチーノボタンを検出し、カプチーノボタンに対応するコマンド「カプチーノを入れる」を認識する。そして、第1のコマンド取得部124は、コマンド「カプチーノを入れる」を取得する。
When the command reception screen 30-4 is displayed, input by pressing a button becomes possible. As shown in FIG. 16, the
実行制御部127は、第1のコマンド取得部124によってコマンド「カプチーノを入れる」が取得されると、カプチーノをカップCuに入れるように制御対象機器(コーヒーメーカ)20−4を制御する。図16を参照すると、制御対象機器(コーヒーメーカ)20−4にカップCuが置かれ、カップCuにカプチーノが入れられた様子が示されている。
When the command “put cappuccino” is acquired by the first
ここで、図17に示すように、ユーザ80が制御対象機器(コーヒーメーカ)20−4にカップCuを置き、コマンド受付画面30−4におけるカプチーノを押下する代わりに、「カプチーノ」と発話してもよい。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、コマンド認識部123は、あらかじめ関連付けられた情報を参照して、音声認識処理結果「カプチーノ」からコマンド「カプチーノを入れる」を認識する。
Here, as shown in FIG. 17, instead of placing the cup Cu on the control target device (coffee maker) 20-4 and pressing the cappuccino on the command reception screen 30-4, the
そして、第2のコマンド取得部125は、コマンド「カプチーノを入れる」を取得し、実行制御部127は、第2のコマンド取得部125によってコマンド「カプチーノを入れる」が取得されたため、コマンド「カプチーノを入れる」が実行されるように制御対象機器(コーヒーメーカ)20−4を制御する。図17を参照すると、制御対象機器(コーヒーメーカ)20−4にカップCuが置かれ、カップCuにカプチーノが入れられた様子が示されている。
Then, the second
図18〜図23は、天気予報の表示を制御する動作の例を説明するための図である。まず、ユーザ80は天気予報を閲覧したいと考えた場合、図18に示すように、「天気予報」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「現在地の天気予報の表示」を制御する。図18には、現在地の天気予報が、コマンド受付画面30−5Aとして表示されている。なお、現在地の天気予報は、外部ネットワーク30を介して図示しないサーバから取得されてよい。
18 to 23 are diagrams for describing an example of an operation for controlling the display of the weather forecast. First, when the
なお、天気予報などのように細かい情報は、大きな画面に表示されるのが見やすさの観点からよいと考えられる。したがって、図18に示すように、天気予報が制御対象機器(TV)20−1の画面に表示されてよい。このとき、図18に示すように、情報処理装置10が自律的に制御対象機器(TV)20−1の方に向きを変えるようにしてよい。そうすれば、ユーザ80も制御対象機器(TV)20−1に天気予報が表示されることを感覚的により容易に把握しやすくなる。
It should be noted that detailed information such as a weather forecast is preferably displayed on a large screen from the viewpoint of ease of viewing. Therefore, as shown in FIG. 18, the weather forecast may be displayed on the screen of the control target device (TV) 20-1. At this time, as illustrated in FIG. 18, the
続いて、ユーザ80は現在地(東京)の週間天気を閲覧したいと考えた場合、図18に示すように、「週間天気」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、実行制御部127は、コマンド「現在地の週間天気の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図19を参照すると、制御対象機器(図示しないサーバ)から取得された東京の週間天気がコマンド受付画面30−5Bとして表示されている様子が示されている。
Subsequently, when the
続いて、ユーザ80は大阪の週間天気を閲覧したいと考えた場合、図20に示すように、「大阪の週間天気」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、実行制御部127は、コマンド「大阪の週間天気の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図20を参照すると、制御対象機器(図示しないサーバ)から取得された大阪の週間天気がコマンド受付画面30−5Bとして表示されている様子が示されている。
Subsequently, when the
続いて、ユーザ80はメッシュ天気を閲覧したいと考えた場合、図21に示すように、「メッシュ天気」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、実行制御部127は、コマンド「メッシュ天気の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図21を参照すると、制御対象機器(図示しないサーバ)から取得されたメッシュ天気がコマンド受付画面30−5Cとして表示されている様子が示されている。
Subsequently, when the
続いて、ユーザ80は熊本の天気変化を閲覧したいと考えた場合、図22に示すように、所定のジェスチャ(例えば、人差し指を移動させる操作など)によって画面内のポインタを熊本まで移動させてから、所定の決定操作(図22に示すように、手の平を画面に向けて押す動作など)をすればよい。このように操作すると、実行制御部127は、コマンド「熊本の天気変化の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図23を参照すると、制御対象機器(図示しないサーバ)から取得された熊本の天気変化がコマンド受付画面30−5Dとして表示されている様子が示されている。
Subsequently, when the
図24〜図26は、金閣寺の写真の表示を制御する動作の例を説明するための図である。まず、ユーザ80は金閣寺の写真を閲覧したいと考えた場合、図24に示すように、「金閣寺の写真」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「金閣寺の写真の表示」を制御する。図24には、金閣寺の写真のサムネイル画像が、コマンド受付画面30−6Aとして表示されている。なお、金閣寺の写真は、外部ネットワーク30を介して図示しないサーバから取得されてよい。
FIGS. 24-26 is a figure for demonstrating the example of the operation | movement which controls the display of the photograph of Kinkakuji. First, when the
続いて、ユーザ80は左下のサムネイル画像の拡大画像を閲覧したいと考えた場合、図25に示すように、所定のジェスチャ(例えば、人差し指を移動させる操作など)によって画面内のポインタを左下のサムネイル画像まで移動させてから、所定の決定操作(図25に示すように、手の平を画面に向けて押す動作など)をすればよい。このように操作すると、実行制御部127は、コマンド「拡大画像の表示」が実行されるように制御対象機器(図示しないサーバ)を制御する。図26を参照すると、制御対象機器(図示しないサーバ)から取得された拡大画像がコマンド受付画面30−6Aとして表示されている様子が示されている。
Subsequently, when the
図27〜図29は、予定表の表示を制御する動作の例を説明するための図である。まず、ユーザ80は予定表を閲覧したいと考えた場合、図27に示すように、「予定表」と発話する。ユーザ80がこのように発話すると、図4および図5を参照しながら説明した場合と同様にして、表示制御部128は、コマンド「予定表の表示」を制御する。図27には、予定表が、コマンド受付画面30−7Aとして表示されている。なお、予定表は、あらかじめ第1の記憶部130に記憶されていてよい。
27 to 29 are diagrams for explaining an example of an operation for controlling display of the schedule table. First, when the
続いて、ユーザ80は予定表の中における今月25日の予定表を閲覧したいと考えた場合、図28に示すように、「25日の予定」と発話する。ユーザ80がこのように発話すると、図8を参照しながら説明した場合と同様に、実行制御部127は、コマンド「今月25日の予定表の表示」が実行されるように第1の記憶部130を制御する。図28を参照すると、第1の記憶部130から取得された今月25日の予定表がコマンド受付画面30−7Bとして表示されている様子が示されている。
Subsequently, when the
続いて、ユーザ80は予定表のトップページに戻りたいと考えた場合、図29に示すように、所定のジェスチャ(例えば、手を開いた状態において手を移動させる操作など)をすればよい。このように操作すると、コマンド認識部123は、現在表示されているページが属するページ群のトップページに表示を切り替えるためのコマンドを認識し、第1のコマンド取得部124は、かかるコマンドを取得し、実行制御部127は、かかるコマンド「トップページへの遷移」が実行されるように第1の記憶部130を制御する。図29を参照すると、予定表のトップページがコマンド受付画面30−7Aとして表示されている様子が示されている。
Subsequently, when the
続いて、本実施形態に係る情報処理装置10の動作の流れについて説明する。図30Aおよび図30Bは、本実施形態に係る情報処理装置10の動作の流れを示すフローチャートである。まず、画像解析部121は、撮像部112によって撮像された画像に基づいて、ユーザ80の位置を検出する(S11)。続いて、表示制御部128は、表示部161による表示位置をユーザの位置に基づいて移動させる(S12)。続いて、表示制御部128は、ユーザの発話に基づいてコマンド受付画面を表示部161に表示させる(S13)。
Next, the operation flow of the
続いて、コマンド認識部123は、画像解析部121による解析結果を参照し、ユーザ80の手が撮像されていない場合には(S14において「No」)、S23に動作を移行させる。一方、コマンド認識部123は、画像解析部121による解析結果を参照し、ユーザ80の手が撮像されている場合(S14において「Yes」)、S15に動作を移行させる。続いて、コマンド認識部123は、有効位置(ボタンの位置など)にユーザ80の手がない場合には(S15において「No」)、S23に動作を移行させる。一方、コマンド認識部123は、有効位置(ボタンの位置など)にユーザ80の手がある場合には(S15において「Yes」)、S16に動作を移行させる。
Subsequently, the
続いて、コマンド認識部123は、距離検出部113によって検出されたユーザ80までの距離を参照して、ユーザ80の手が奥方向に移動していない場合には(S16において「No」)、S19に動作を移行させる。一方、コマンド認識部123は、距離検出部113によって検出されたユーザ80までの距離を参照して、ユーザ80の手が奥方向に移動した場合には(S16において「Yes」)、S17に動作を移行させる。
Subsequently, the
続いて、コマンド認識部123は、所定の速さを超える速さによって所定の距離を超える距離だけユーザ80の手が奥方向に移動していない場合には(S17において「No」)、S19に動作を移行させる。一方、実行制御部127は、所定の速さを超える速さによって所定の距離を超える距離だけユーザ80の手が奥方向に移動した場合には(S17において「Yes」)、ユーザ80の手によって指示されるコマンドが実行されるように制御対象機器20を制御する(S18)。
Subsequently, when the hand of the
続いて、音声認識部122は、ユーザ80による発話がない場合には(S19において「No」)、S14に動作を移行させるが、ユーザ80による発話があった場合には(S19において「Yes」)、集音部151によって集音された音情報に対して音声認識処理(これ、削除、録画、再生など)を行い(S20)、S21に動作を移行させる。
Subsequently, when there is no utterance by the user 80 (“No” in S19), the
続いて、実行制御部127は、音声が手によって指示される表示オブジェクト(ボタンなど)に対応する場合には(S21において「Yes」)、手および音声によって指示されるコマンドが実行されるように制御対象機器20を制御する(S22)。一方、実行制御部127は、音声が手によって指示される表示オブジェクト(ボタンなど)に対応しない場合には(S21において「Yes」)、S23に動作を移行させる。
Subsequently, when the voice corresponds to a display object (button or the like) indicated by the hand (“Yes” in S21), the
続いて、音声認識部122は、ユーザ80による発話がない場合には(S23において「No」)、S14に動作を移行させるが、ユーザ80による発話があった場合には(S23において「Yes」)、集音部151によって集音された音情報に対して音声認識処理(キャンセル、電源ON、次のページに進むなど)を行い(S24)、音声によって指示されるコマンドが実行されるように制御対象機器20を制御する(S25)。
Subsequently, when there is no utterance by the user 80 (“No” in S23), the
[1.4.ハードウェア構成例]
次に、図31を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図31は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
[1.4. Hardware configuration example]
Next, a hardware configuration of the
図31に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
As illustrated in FIG. 31, the
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
The
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
The
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
The
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
The storage device 919 is a data storage device configured as an example of a storage unit of the
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
The
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
The
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
The
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
The
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
The
<2.むすび>
以上説明したように、本開示の実施形態によれば、操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、を備える、情報処理装置が提供される。かかる構成によれば、コマンドを実行させるための入力の柔軟性を向上させることが可能な技術が提供されることが可能となる。
<2. Conclusion>
As described above, according to the embodiment of the present disclosure, the first command acquisition unit that acquires the first command corresponding to the position of the operating tool, and the voice recognition process obtained by the voice recognition process for the sound information A second command acquisition unit that acquires a second command according to a result; and, when the first command is acquired, controls execution of the first command by a first control target device; When the second command is acquired, an information processing apparatus is provided that includes an execution control unit that controls execution of the second command by the second device to be controlled. According to such a configuration, it is possible to provide a technique capable of improving the flexibility of input for executing a command.
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
例えば、上記では、第1の表示部161−1が比較的高い位置(例えば、壁、テレビジョン装置など)に表示を行うのに対し、第2の表示部161−2が比較的低い位置(例えば、ユーザの手元など)に表示を行う例を説明した。しかし、第1の表示部161−1および第2の表示部161−2それぞれによる表示位置は特に限定されない。例えば、情報処理装置10が車両の中に持ち込まれた場合、第1の表示部161−1および第2の表示部161−2の少なくとも何れか一方は、車両のダッシュボード、車両の天井面、車両のモニタなどに表示することも可能である。
For example, in the above, the first display unit 161-1 performs display on a relatively high position (for example, a wall, a television device, etc.), while the second display unit 161-2 displays a relatively low position ( For example, the example which displays on a user's hand etc. was demonstrated. However, the display positions by the first display unit 161-1 and the second display unit 161-2 are not particularly limited. For example, when the
また、表示位置に優先順位を付けてもよい。例えば、ユーザ80の手の位置に応じた領域(例えば、テーブル面)が乱雑である場合に、第2の表示部161−2がそのままユーザ80の手の位置に応じた領域を表示位置としてしまうと、視認しづらい表示が行われてしまう可能性がある。かかる場合には、第1の表示部161−1が、ユーザ80の手の位置に応じた領域の代わりに、壁面などに表示を行うようにしてもよい。
Moreover, you may give a priority to a display position. For example, when an area (for example, a table surface) according to the position of the user's 80 hand is messy, the second display unit 161-2 directly uses the area according to the position of the user's 80 hand as the display position. In such a case, a display that is difficult to visually recognize may be performed. In such a case, the first display unit 161-1 may perform display on a wall surface or the like instead of the area corresponding to the position of the
また、第1の表示部161−1および第2の表示部161−2の少なくともいずれか一方は、ユーザ80による視認性を向上させるため、表示位置の色に合わせて表示色を変えるようにしてもよい。
In addition, at least one of the first display unit 161-1 and the second display unit 161-2 is configured to change the display color according to the color of the display position in order to improve the visibility by the
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部120が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
In addition, it is possible to create a program for causing hardware such as a CPU, ROM, and RAM incorporated in a computer to exhibit functions equivalent to the functions of the
なお、上述した情報処理装置10の動作が実現されれば、各構成の位置は特に限定されない。具体的な一例として、画像解析部121、音声認識部122およびコマンド認識部123などは、外部ネットワーク30を介して接続された図示しないサーバなどに設けられてもよい。この場合には、制御部120が当該サーバに外部ネットワーク30を介して接続されたクライアントに相当し得る。画像解析部121、音声認識部122およびコマンド認識部123などは、別々のサーバに設けられていてもよい。
Note that the position of each component is not particularly limited as long as the operation of the
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。 Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、
を備える、情報処理装置。
(2)
前記第1のコマンド取得部は、前記操作体の位置との間で所定の関係を満たす表示オブジェクトの位置が検出された場合、前記表示オブジェクトに応じた前記第1のコマンドを取得する、
前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、
前記表示オブジェクトの表示を制御する表示制御部を備える、
前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、ユーザの位置に応じた領域への前記表示オブジェクトの表示を制御する、
前記(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記表示オブジェクトの種類に応じて、前記表示オブジェクトの表示位置を異ならせる、
前記(3)または(4)に記載の情報処理装置。
(6)
前記第1のコマンド取得部は、前記操作体の位置との間で前記所定の関係を満たす前記表示オブジェクトの位置が検出された場合、かつ、所定のコマンド決定操作が検出された場合、前記表示オブジェクトに応じた前記第1のコマンドを取得する、
前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記所定のコマンド決定操作は、前記操作体が所定の位置から見て遠ざかる方向に移動することを含む、
前記(6)に記載の情報処理装置。
(8)
前記所定のコマンド決定操作は、前記操作体が前記所定の位置から見て遠ざかる方向に所定の速さを超えた速さで移動することを含む、
前記(7)に記載の情報処理装置。
(9)
前記所定のコマンド決定操作は、前記操作体が前記所定の位置から見て遠ざかる方向に所定の距離を超えた距離だけ前記所定の速さを超えた速さで移動することを含む、
前記(8)に記載の情報処理装置。
(10)
前記第2のコマンド取得部は、前記操作体の位置との間で所定の関係を満たす表示オブジェクトの位置が検出されない場合、前記音声認識処理結果に応じた前記第2のコマンドを取得する、
前記(1)に記載の情報処理装置。
(11)
前記情報処理装置は、
前記操作体の位置との間で前記所定の関係を満たす前記表示オブジェクトの位置が検出された場合、かつ、前記所定のコマンド決定操作が検出されない場合、かつ、前記音声認識処理結果が前記表示オブジェクトに対応することが検出された場合、前記表示オブジェクトおよび前記音声認識処理結果に応じた第3のコマンドを取得する第3のコマンド取得部を備える、
前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(12)
前記実行制御部は、前記第3のコマンドが取得された場合、前記第3のコマンドの第3の制御対象機器による実行を制御する、
前記(11)に記載の情報処理装置。
(13)
前記情報処理装置は、
撮像部によって撮像された画像に対する画像解析によって前記操作体の位置を得る画像解析部を備える、
前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記情報処理装置は、
前記操作体の位置に基づいて前記第1のコマンドを認識するとともに、前記音声認識処理結果に基づいて前記第2のコマンドを認識するコマンド認識部を備える、
前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記情報処理装置は、
前記音情報に対する音声認識処理により前記音声認識処理結果を得る音声認識部を備える、
前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記操作体は、前記ユーザの手を含む、
前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記第1のコマンド取得部は、前記ユーザの手が開かれた状態において前記ユーザの手が移動された場合には、現在表示されているページが属するページ群のトップページに表示を切り替えるためのコマンドを前記第1のコマンドとして取得する、
前記(16)に記載の情報処理装置。
(18)
前記第1のコマンド取得部は、前記ユーザの手のうち人差し指と小指とが開かれ、かつ、親指と中指と薬指とが閉じられた状態において前記ユーザの手が移動された場合には、現在表示されているページの次のページに表示を切り替えるためのコマンドを前記第1のコマンドとして取得する、
前記(16)または(17)に記載の情報処理装置。
(19)
コンピュータにより操作体の位置に応じた第1のコマンドを取得することと、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得することと、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御することと、
を含む、情報処理方法。
(20)
コンピュータを、
操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、
を備える情報処理装置として機能させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A first command acquisition unit that acquires a first command according to the position of the operating body;
A second command acquisition unit for acquiring a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. An execution control unit that controls execution by the target device;
An information processing apparatus comprising:
(2)
The first command acquisition unit acquires the first command according to the display object when the position of the display object satisfying a predetermined relationship with the position of the operation body is detected.
The information processing apparatus according to (1).
(3)
The information processing apparatus includes:
A display control unit for controlling display of the display object;
The information processing apparatus according to (2).
(4)
The display control unit controls display of the display object in an area according to a position of a user;
The information processing apparatus according to (3).
(5)
The display control unit varies the display position of the display object according to the type of the display object.
The information processing apparatus according to (3) or (4).
(6)
The first command acquisition unit is configured to display the display when a position of the display object that satisfies the predetermined relationship with a position of the operating body is detected, and when a predetermined command determination operation is detected. Obtaining the first command according to an object;
The information processing apparatus according to any one of (2) to (5).
(7)
The predetermined command determining operation includes moving the operating body in a direction away from a predetermined position.
The information processing apparatus according to (6).
(8)
The predetermined command determination operation includes moving the operating body at a speed exceeding a predetermined speed in a direction away from the predetermined position.
The information processing apparatus according to (7).
(9)
The predetermined command determination operation includes moving the operating body at a speed exceeding the predetermined speed by a distance exceeding a predetermined distance in a direction away from the predetermined position.
The information processing apparatus according to (8).
(10)
The second command acquisition unit acquires the second command according to the voice recognition processing result when the position of the display object satisfying a predetermined relationship with the position of the operation body is not detected.
The information processing apparatus according to (1).
(11)
The information processing apparatus includes:
When the position of the display object satisfying the predetermined relationship with the position of the operating body is detected, and when the predetermined command determination operation is not detected, and the voice recognition processing result is the display object A third command acquisition unit that acquires a third command according to the display object and the voice recognition processing result,
The information processing apparatus according to any one of (2) to (5).
(12)
The execution control unit controls execution of the third command by a third control target device when the third command is acquired.
The information processing apparatus according to (11).
(13)
The information processing apparatus includes:
An image analysis unit that obtains the position of the operating body by image analysis on an image captured by the imaging unit;
The information processing apparatus according to any one of (1) to (12).
(14)
The information processing apparatus includes:
A command recognizing unit for recognizing the first command based on the position of the operating body and recognizing the second command based on the voice recognition processing result;
The information processing apparatus according to any one of (1) to (13).
(15)
The information processing apparatus includes:
A speech recognition unit that obtains the speech recognition processing result by speech recognition processing on the sound information;
The information processing apparatus according to any one of (1) to (14).
(16)
The operation body includes the user's hand,
The information processing apparatus according to any one of (1) to (15).
(17)
The first command acquisition unit is configured to switch a display to a top page of a page group to which a currently displayed page belongs when the user's hand is moved in a state where the user's hand is opened. Obtaining a command as the first command;
The information processing apparatus according to (16).
(18)
The first command acquisition unit is configured to display the current command when the index finger and pinky finger of the user's hand are opened and the user's hand is moved with the thumb, middle finger, and ring finger closed. A command for switching display to the next page of the displayed page is acquired as the first command;
The information processing apparatus according to (16) or (17).
(19)
Obtaining a first command corresponding to the position of the operating body by a computer;
Obtaining a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. Controlling execution by the target device;
Including an information processing method.
(20)
Computer
A first command acquisition unit that acquires a first command according to the position of the operating body;
A second command acquisition unit for acquiring a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. An execution control unit that controls execution by the target device;
A program for causing an information processing apparatus to function.
10 情報処理装置
20 制御対象機器
30 外部ネットワーク
80 ユーザ
111 音出力部
112 撮像部
113 距離検出部
120 制御部
121 画像解析部
122 音声認識部
123 コマンド認識部
124 第1のコマンド取得部
125 第2のコマンド取得部
126 第3のコマンド取得部
127 実行制御部
128 表示制御部
130 第1の記憶部
140 通信部
151 集音部
161 表示部
230 第2の記憶部
330 第3の記憶部
DESCRIPTION OF
Claims (20)
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、
を備える、情報処理装置。 A first command acquisition unit that acquires a first command according to the position of the operating body;
A second command acquisition unit for acquiring a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. An execution control unit that controls execution by the target device;
An information processing apparatus comprising:
請求項1に記載の情報処理装置。 The first command acquisition unit acquires the first command according to the display object when the position of the display object satisfying a predetermined relationship with the position of the operation body is detected.
The information processing apparatus according to claim 1.
前記表示オブジェクトの表示を制御する表示制御部を備える、
請求項2に記載の情報処理装置。 The information processing apparatus includes:
A display control unit for controlling display of the display object;
The information processing apparatus according to claim 2.
請求項3に記載の情報処理装置。 The display control unit controls display of the display object in an area according to a position of a user;
The information processing apparatus according to claim 3.
請求項3または4に記載の情報処理装置。 The display control unit varies the display position of the display object according to the type of the display object.
The information processing apparatus according to claim 3 or 4.
請求項2〜5のいずれか一項に記載の情報処理装置。 The first command acquisition unit is configured to display the display when a position of the display object that satisfies the predetermined relationship with a position of the operating body is detected, and when a predetermined command determination operation is detected. Obtaining the first command according to an object;
The information processing apparatus according to any one of claims 2 to 5.
請求項6に記載の情報処理装置。 The predetermined command determining operation includes moving the operating body in a direction away from a predetermined position.
The information processing apparatus according to claim 6.
請求項7に記載の情報処理装置。 The predetermined command determination operation includes moving the operating body at a speed exceeding a predetermined speed in a direction away from the predetermined position.
The information processing apparatus according to claim 7.
請求項8に記載の情報処理装置。 The predetermined command determination operation includes moving the operating body at a speed exceeding the predetermined speed by a distance exceeding a predetermined distance in a direction away from the predetermined position.
The information processing apparatus according to claim 8.
請求項1に記載の情報処理装置。 The second command acquisition unit acquires the second command according to the voice recognition processing result when the position of the display object satisfying a predetermined relationship with the position of the operation body is not detected.
The information processing apparatus according to claim 1.
前記操作体の位置との間で前記所定の関係を満たす前記表示オブジェクトの位置が検出された場合、かつ、前記所定のコマンド決定操作が検出されない場合、かつ、前記音声認識処理結果が前記表示オブジェクトに対応することが検出された場合、前記表示オブジェクトおよび前記音声認識処理結果に応じた第3のコマンドを取得する第3のコマンド取得部を備える、
請求項2〜5のいずれか一項に記載の情報処理装置。 The information processing apparatus includes:
When the position of the display object satisfying the predetermined relationship with the position of the operating body is detected, and when the predetermined command determination operation is not detected, and the voice recognition processing result is the display object A third command acquisition unit that acquires a third command according to the display object and the voice recognition processing result,
The information processing apparatus according to any one of claims 2 to 5.
請求項11に記載の情報処理装置。 The execution control unit controls execution of the third command by a third control target device when the third command is acquired.
The information processing apparatus according to claim 11.
撮像部によって撮像された画像に対する画像解析によって前記操作体の位置を得る画像解析部を備える、
請求項1〜12のいずれか一項に記載の情報処理装置。 The information processing apparatus includes:
An image analysis unit that obtains the position of the operating body by image analysis on an image captured by the imaging unit;
The information processing apparatus according to any one of claims 1 to 12.
前記操作体の位置に基づいて前記第1のコマンドを認識するとともに、前記音声認識処理結果に基づいて前記第2のコマンドを認識するコマンド認識部を備える、
請求項1〜13のいずれか一項に記載の情報処理装置。 The information processing apparatus includes:
A command recognition unit that recognizes the first command based on the position of the operating body and recognizes the second command based on the voice recognition processing result.
The information processing apparatus according to any one of claims 1 to 13.
前記音情報に対する音声認識処理により前記音声認識処理結果を得る音声認識部を備える、
請求項1〜14のいずれか一項に記載の情報処理装置。 The information processing apparatus includes:
A speech recognition unit that obtains the speech recognition processing result by speech recognition processing on the sound information;
The information processing apparatus according to any one of claims 1 to 14.
請求項1〜15のいずれか一項に記載の情報処理装置。 The operation body includes the user's hand,
The information processing apparatus according to any one of claims 1 to 15.
請求項16に記載の情報処理装置。 The first command acquisition unit is configured to switch a display to a top page of a page group to which a currently displayed page belongs when the user's hand is moved in a state where the user's hand is opened. Obtaining a command as the first command;
The information processing apparatus according to claim 16.
請求項16または17に記載の情報処理装置。 The first command acquisition unit is configured to display the current command when the index finger and pinky finger of the user's hand are opened and the user's hand is moved with the thumb, middle finger and ring finger closed. A command for switching display to the next page of the displayed page is acquired as the first command;
The information processing apparatus according to claim 16 or 17.
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得することと、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御することと、
を含む、情報処理方法。 Obtaining a first command corresponding to the position of the operating body by a computer;
Obtaining a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. Controlling execution by the target device;
Including an information processing method.
操作体の位置に応じた第1のコマンドを取得する第1のコマンド取得部と、
音情報に対する音声認識処理によって得られた音声認識処理結果に応じた第2のコマンドを取得する第2のコマンド取得部と、
前記第1のコマンドが取得された場合、前記第1のコマンドの第1の制御対象機器による実行を制御し、前記第2のコマンドが取得された場合、前記第2のコマンドの第2の制御対象機器による実行を制御する実行制御部と、
を備える情報処理装置として機能させるためのプログラム。
Computer
A first command acquisition unit that acquires a first command according to the position of the operating body;
A second command acquisition unit for acquiring a second command according to a voice recognition processing result obtained by the voice recognition processing for the sound information;
When the first command is acquired, the execution of the first command by the first control target device is controlled, and when the second command is acquired, the second control of the second command is performed. An execution control unit that controls execution by the target device;
A program for causing an information processing apparatus to function.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016017747A JP2017138698A (en) | 2016-02-02 | 2016-02-02 | Information processing device, information processing method and program |
PCT/JP2016/081360 WO2017134868A1 (en) | 2016-02-02 | 2016-10-21 | Information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016017747A JP2017138698A (en) | 2016-02-02 | 2016-02-02 | Information processing device, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017138698A true JP2017138698A (en) | 2017-08-10 |
Family
ID=59499664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016017747A Pending JP2017138698A (en) | 2016-02-02 | 2016-02-02 | Information processing device, information processing method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2017138698A (en) |
WO (1) | WO2017134868A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019091006A (en) * | 2017-11-16 | 2019-06-13 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Voice interactive method, device, terminal, server and readable storage medium |
JP2021523456A (en) * | 2018-05-07 | 2021-09-02 | グーグル エルエルシーGoogle LLC | Methods, systems and equipment for providing synthetic graphical assistant interfaces for controlling connected devices |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7030863B2 (en) * | 2000-05-26 | 2006-04-18 | America Online, Incorporated | Virtual keyboard system with automatic correction |
JP2015053020A (en) * | 2013-09-09 | 2015-03-19 | 株式会社リコー | Information display device, information display method, and program |
JP6192104B2 (en) * | 2013-09-13 | 2017-09-06 | 国立研究開発法人情報通信研究機構 | Text editing apparatus and program |
-
2016
- 2016-02-02 JP JP2016017747A patent/JP2017138698A/en active Pending
- 2016-10-21 WO PCT/JP2016/081360 patent/WO2017134868A1/en active Application Filing
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019091006A (en) * | 2017-11-16 | 2019-06-13 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Voice interactive method, device, terminal, server and readable storage medium |
US10811010B2 (en) | 2017-11-16 | 2020-10-20 | Baidu Online Network Technology (Beijing) Co., Ltd. | Voice interaction method and apparatus, terminal, server and readable storage medium |
JP7026020B2 (en) | 2017-11-16 | 2022-02-25 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Voice dialogue methods, devices, terminals, servers, readable storage media and programs |
JP2021523456A (en) * | 2018-05-07 | 2021-09-02 | グーグル エルエルシーGoogle LLC | Methods, systems and equipment for providing synthetic graphical assistant interfaces for controlling connected devices |
JP7155294B2 (en) | 2018-05-07 | 2022-10-18 | グーグル エルエルシー | Methods, systems and apparatus for providing a synthetic graphical assistant interface for controlling connected devices |
Also Published As
Publication number | Publication date |
---|---|
WO2017134868A1 (en) | 2017-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6428954B2 (en) | Information processing apparatus, information processing method, and program | |
JP6044079B2 (en) | Information processing apparatus, information processing method, and program | |
JP5316387B2 (en) | Information processing apparatus, display method, and program | |
WO2021104236A1 (en) | Method for sharing photographing parameter, and electronic apparatus | |
US11170580B2 (en) | Information processing device, information processing method, and recording medium | |
WO2017130486A1 (en) | Information processing device, information processing method, and program | |
KR20170064242A (en) | Method and Electronic Apparatus for Providing Video Call | |
JP6729555B2 (en) | Information processing system and information processing method | |
WO2013145673A1 (en) | Information processing apparatus, information processing method, and program | |
JPWO2017061149A1 (en) | Information processing apparatus, information processing method, and program | |
WO2016152200A1 (en) | Information processing system and information processing method | |
WO2014034256A1 (en) | Display control apparatus, display control system, and display control method | |
US9179031B2 (en) | Content acquisition apparatus and storage medium | |
CN111464746B (en) | Photographing method and electronic equipment | |
JP6627775B2 (en) | Information processing apparatus, information processing method and program | |
JP6575518B2 (en) | Display control apparatus, display control method, and program | |
JP2016109726A (en) | Information processing device, information processing method and program | |
WO2017134868A1 (en) | Information processing device, information processing method and program | |
JP2019023902A (en) | Program and information processing device | |
JP2016156877A (en) | Information processing device, information processing method, and program | |
WO2017033544A1 (en) | Information processing device, information processing method, and program | |
WO2017187677A1 (en) | Information processing device, information processing method, and program | |
JP2016180778A (en) | Information processing system and information processing method | |
WO2018179972A1 (en) | Information processing apparatus, information processing method, and program | |
US20240284041A1 (en) | Information processing apparatus and information processing method |