JP2006309448A - User interface device and method - Google Patents
User interface device and method Download PDFInfo
- Publication number
- JP2006309448A JP2006309448A JP2005130242A JP2005130242A JP2006309448A JP 2006309448 A JP2006309448 A JP 2006309448A JP 2005130242 A JP2005130242 A JP 2005130242A JP 2005130242 A JP2005130242 A JP 2005130242A JP 2006309448 A JP2006309448 A JP 2006309448A
- Authority
- JP
- Japan
- Prior art keywords
- user
- operation intention
- intention
- unit
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Digital Computer Display Output (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザの操作意図を事前に推定して動作し、又は動作準備を行うことが可能なユーザインターフェース装置及びその方法に関する。 The present invention relates to a user interface device and a method thereof that can perform an operation or prepare for an operation by estimating a user's operation intention in advance.
ユーザが操作可能なユーザインターフェース装置においては、例えばポインティングデバイスによるポインティング操作など、ユーザの手を使った物理的な操作に応じて動作するのが通常である。しかしながら、特に四肢麻痺等の重度の障害者にとってはポインティングデバイスの表示位置をディスプレイ上のアイコン等の操作子に合わせることが困難であることから、ユーザの操作負担の軽減が求められていた。 A user interface device that can be operated by a user normally operates in accordance with a physical operation using a user's hand, such as a pointing operation using a pointing device. However, it is difficult for a person with severe disabilities such as paralysis of the limbs to adjust the display position of the pointing device to an operator such as an icon on the display.
そこで、従来、ポインティングデバイスの1つであるマウスを用いたポインティング操作に、ユーザの視線情報を利用することが提案されている。具体的に、下記非特許文献1では、完全にユーザの視線によりポインティング操作を行うAuto方式や、視線による大まかなポインティングを行った後でポインティングデバイスをマウスに切り替えるManual方式などが提案されている。また、下記特許文献1では、ポインティング操作にユーザの視線情報を利用すると共に、ポインティングデバイスの表示位置に最も近い操作子との間に、ポインティングデバイスを操作子に引き寄せる吸着機能を持たせることが提案されている。このようなポインティングデバイスを備えたユーザインターフェース装置によれば、ポインティング操作に際して、ユーザは基本的に視線を動かすのみでよいため、ユーザの操作負担を軽減することができる。 Therefore, conventionally, it has been proposed to use the user's line-of-sight information for a pointing operation using a mouse which is one of pointing devices. Specifically, the following Non-Patent Document 1 proposes an Auto method in which a pointing operation is completely performed by a user's line of sight, a Manual method in which a pointing device is switched to a mouse after performing a rough pointing by a line of sight. Further, in Patent Document 1 below, it is proposed to use a user's line-of-sight information for a pointing operation, and to have a suction function that draws the pointing device to the operator between the operator closest to the display position of the pointing device. Has been. According to the user interface device provided with such a pointing device, the user basically only needs to move his / her line of sight when performing the pointing operation, so that the operation burden on the user can be reduced.
しかしながら、上記非特許文献1におけるAuto方式では、視線認識の精度に起因してアイコンやメニュー等の選択に長時間を要しており、Manual方式でも、視線を移動させてからでなければ視線の場所を計算できないため、実際にポインティングデバイスの表示位置、すなわちマウスカーソルの位置が初期移動するまでには多少の時間を要していた。また、上記特許文献1のポインティングデバイスは、吸着機能を有しているものの、実際にマウスカーソルの位置が初期移動するまでには多少の時間を要していた。 However, in the Auto method in Non-Patent Document 1, it takes a long time to select icons, menus, etc. due to the accuracy of gaze recognition. Even in the Manual method, the line of sight is not changed unless the line of sight is moved. Since the location cannot be calculated, it took some time until the display position of the pointing device, that is, the position of the mouse cursor initially moved. In addition, although the pointing device of Patent Document 1 has an adsorption function, it takes some time until the position of the mouse cursor actually moves.
さらに、あらゆる従来のポインティングデバイスでは、ユーザは現在行っている作業にとって大切な意識・意図を必ずポインティング操作に向けなければならず、ポインティング操作を行おうとする度に、現在の作業に対する注意を反らすこととなっていた。 In addition, with any conventional pointing device, the user must always direct the consciousness / intention important to the current work to the pointing operation, and every time a pointing operation is performed, the user is warned of the current work. It was.
このような問題は、マウス等のポインティングデバイスを備えたユーザインターフェース装置の場合に限らず、他のユーザインターフェース装置においても同様である。 Such a problem is not limited to the case of a user interface device provided with a pointing device such as a mouse, and the same applies to other user interface devices.
本発明は、このような従来の実情に鑑みて提案されたものであり、ユーザの操作意図を事前に推定して動作し、又は動作準備を行うことが可能なユーザインターフェース装置及びその方法を提供することを目的とする。 The present invention has been proposed in view of such a conventional situation, and provides a user interface apparatus and method capable of operating or preparing for operation by estimating a user's operation intention in advance. The purpose is to do.
上述した目的を達成するために、本発明に係るユーザインターフェース装置は、ユーザによる操作が可能なインターフェース手段と、上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段と、ユーザの状態をセンシングするセンサ手段と、上記センサ手段によってセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定手段と、上記操作意図推定手段によって推定された操作意図に応じて上記処理手段を制御する制御手段とを備えることを特徴とする。 In order to achieve the above-described object, a user interface device according to the present invention includes an interface unit that can be operated by a user, a processing unit that performs a predetermined process in accordance with a user operation via the interface unit, and a user A sensor means for sensing the state of the user, an operation intention estimation means for estimating the user's operation intention in advance using an inference model based on the state of the user sensed by the sensor means, and the operation intention estimation means. Control means for controlling the processing means in accordance with the estimated operation intention.
また、上述した目的を達成するために、本発明に係るユーザインターフェース方法は、ユーザによる操作が可能なインターフェース手段と、上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段とを備えたユーザインターフェース装置におけるユーザインターフェース方法であって、ユーザの状態をセンシングするセンシング工程と、上記センシング工程にてセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定工程と、上記操作意図推定工程にて推定された操作意図に応じて上記処理手段を制御する制御工程とを有することを特徴とする。 In order to achieve the above-described object, a user interface method according to the present invention includes an interface unit that can be operated by a user, and a processing unit that performs a predetermined process in response to a user operation via the interface unit. A user interface method in a user interface device comprising: a sensing step for sensing a user state; and based on the user state sensed in the sensing step, the user's operation intention is determined using an inference model. It has the operation intention estimation process estimated in advance, and the control process which controls the said process means according to the operation intention estimated in the said operation intention estimation process.
本発明に係るユーザインターフェース装置及びその方法によれば、センシングしたユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定し、推定された操作意図に応じて動作し、又は動作準備を行うことが可能であるため、ユーザが意図してから操作するまでの時間を短縮することができる。また、この際、ユーザインターフェース装置のユーザがあまり意識しない初期状態について動作又は動作準備を行うようにすれば、誤動作した場合であっても大した問題とは認識されず、ユーザは利便性のみを享受することができる。 According to the user interface device and the method thereof according to the present invention, based on the sensed user state, the operation intention of the user is estimated in advance using an inference model, and the user operates according to the estimated operation intention. Since it is possible to prepare for the operation, it is possible to shorten the time from the user's intention to the operation. At this time, if the user of the user interface device operates or prepares for an initial state that is not so conscious, even if it malfunctions, it will not be recognized as a major problem, and the user only has convenience. You can enjoy it.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
以下では先ず、本発明を、ディスプレイとポインティングデバイスとしてのマウスとを備えたユーザインターフェース装置に適用した例について説明する。図1に示すように、ユーザインターフェース装置1は、インターフェース部10と、ユーザ意図推定モジュール部20とに大別される。このうち、インターフェース部10は、マウス11と、表示制御部12と、ディスプレイ13とを有し、ユーザ意図推定モジュール部20は、センサ部21と、操作意図推定部22と、操作子選択部23とを有している。
Hereinafter, first, an example in which the present invention is applied to a user interface device including a display and a mouse as a pointing device will be described. As shown in FIG. 1, the user interface device 1 is roughly divided into an
このようなユーザインターフェース装置1において、ユーザがディスプレイ13に表示されたマウスカーソルを所望の位置に移動させるためにマウス11を操作すると、その操作に応じた操作信号がマウス11から表示制御部12に供給される。表示制御部12は、この操作信号に基づいて、ディスプレイ13に表示されたマウスカーソルの位置を変更する。また、ユーザがマウスカーソルの位置をアイコン等の操作子に合わせた状態でマウス11をクリック等すると、その操作に応じた操作信号がマウス11から表示制御部12に供給される。表示制御部12は、この操作信号に基づいて、ディスプレイ13の表示内容を変更する。
In such a user interface device 1, when the user operates the mouse 11 to move the mouse cursor displayed on the
一方、センサ部21は、ユーザがマウス11を操作していない場合であっても、ユーザの状態を常時センシングし続け、センシングした情報を操作意図推定部22に供給する。このセンサ部21としては、例えば、CCD(Charge Coupled Device)カメラ、赤外線カメラ、マイクロホン、発汗検出器、視線検出器、温度検出器など、ユーザの状態をセンシングできる種々のデバイスを用いることができるが、ユーザが特別な装置を装着する必要のないものが好ましい。また、センシングする情報としては、例えば下記の表1のようなものが挙げられるが、ユーザが意図しなくとも発せられる情報が特に好ましい。なお、この表1において、「落ち着き具合」は、例えばユーザの顔の動き量から判断することができ、「熱中度合い」は、例えばユーザの顔とディスプレイ13との距離から判断することができる。
On the other hand, even when the user is not operating the mouse 11, the
操作意図推定部22は、このセンシングした多次元の情報に基づいてユーザの操作意図を事前に推定し、推定した操作意図に関する情報を操作子選択部23に供給する。操作子選択部23は、推定された操作意図に対応する操作子を選択し、上述した表示制御部12からの問い合わせに応じて、選択した操作子を通知する。表示制御部12は、操作子選択部23から操作子が通知されると、ディスプレイ13に表示されたマウスカーソルの位置を通知された操作子の位置に合わせる。
The operation
ここで、ユーザインターフェース装置1における操作子とは、ディスプレイ13上でマウス11によるクリック等が可能な箇所であり、各操作子にはユーザの操作意図が対応付けられている。例えば、ディスプレイ13に表示されたウィンドウの場合、図2に示すような操作子30〜38が存在し、操作子30は、ウィンドウを最小化したいという操作意図に、操作子31は、ウィンドウを最大化したいという操作意図に、操作子32は、ウィンドウを閉じたい(クローズ)という操作意図にそれぞれ対応している。また、操作子33〜36は、それぞれ表示領域を上、下、左、右にスクロールさせたいという操作意図に対応しており、操作子37,38は、それぞれ表示領域を上下、左右にスライドさせたいという操作意図に対応している。
Here, the operator in the user interface device 1 is a place where the mouse 11 can be clicked on the
上述した操作意図推定部22は、センサ部21でセンシングした多次元の情報を入力とし、推論モデルを用いてユーザの操作意図を推定する。推論モデルとしては、例えば、ベイジアンネットワーク、ダイナミックベイジアンネットワーク、サポートベクタマシン、ブースティング、隠れマルコフモデル、ニューラルネットワーク等を用いることができる。また、単なるif〜then・・・といった決定論的なモデルを用いることもできる。つまり、センシングした多次元の情報と相関の高い操作意図を1つ選択できる推論モデルであればよい。
The operation
以下、操作意図推定部22における推論モデルとしてベイジアンネットワークを用いる場合について説明する。
Hereinafter, a case where a Bayesian network is used as an inference model in the operation
ベイジアンネットワークのネットワーク構造を構築するには、先ず「操作意図」のノードと、操作意図と相関があると思われるセンシング可能なノードとを決定し、各ノードの状態を定義する。例えば図3に示すように、「操作意図」のノードに加えて、「発汗量」、「手の場所」、及び「熱中度合い」の各ノードを定義することができる。このうち、「操作意図」のノードの状態としては、「最大化」、「最小化」、「クローズ」、「上スクロール」、「下スクロール」など、各操作子の種類を定義する。また、「発汗量」のノードの状態としては、例えば「多い」、「少ない」、「無い」といった状態を定義し、「手の場所」のノードの状態としては、例えば「マウス」、「顔」、「キーボード」といった状態を定義し、「熱中度合い」のノードの状態としては、例えば「熱中」、「普通」、「飽き」といった状態を定義する。 In order to construct a network structure of a Bayesian network, first, a node of “operation intention” and a node capable of sensing that seems to have a correlation with the operation intention are determined, and the state of each node is defined. For example, as shown in FIG. 3, in addition to the “operation intention” node, “sweat amount”, “place of hand”, and “degree of enthusiasm” nodes can be defined. Among these, as the state of the “operation intention” node, the type of each operation element such as “maximize”, “minimize”, “close”, “up scroll”, “down scroll”, and the like is defined. In addition, as the state of the “sweat amount” node, for example, “high”, “low”, and “no” are defined, and as the “hand place” node state, for example, “mouse”, “face” ”And“ keyboard ”are defined, and the state of“ heated ”, for example,“ heated ”,“ ordinary ”, and“ bored ”are defined as the state of the node.
続いて、このような各ノードを繋ぎ、例えば図4に示すようなネットワーク構造を定義する。このネットワーク構造は、例えばK2アルゴリズムを用いて学習データから自動定義してもよく、因果関係を考慮して知識から定義してもよい。その後、例えば図5に示すように、各ノードのパラメータを定義する。このパラメータも、学習データから自動定義してもよく、知識から定義してもよい。 Subsequently, such nodes are connected to define, for example, a network structure as shown in FIG. This network structure may be automatically defined from learning data using, for example, the K2 algorithm, or may be defined from knowledge in consideration of the causal relationship. Thereafter, as shown in FIG. 5, for example, parameters of each node are defined. This parameter may be automatically defined from learning data or may be defined from knowledge.
このようにしてベイジアンネットワークのネットワーク構造が構築された後、操作意図推定部22にセンサ部21でセンシングした多次元の情報が入力されると、操作意図推定部22は、入力された多次元の情報に基づいてユーザの操作意図を推定する。例えば図6(A)に示すように、「発汗量」は「多い」、「熱中度合い」は「飽き」、「手の場所」は「顔」という情報が操作意図推定部22に入力されると、操作意図推定部22は、同図(B)に示すように各操作意図についての値を生成する。この結果、「クローズ」の値が最も大きいため、操作意図推定部22は、ユーザの操作意図を「クローズ」と推定し、「クローズ」に関する情報を操作子選択部23に供給する。
After the network structure of the Bayesian network is constructed in this way, when multidimensional information sensed by the
その後、操作子選択部23は、「クローズ」に対応する操作子、例えば図2における操作子32を選択し、表示制御部12からの問い合わせに応じて、操作子32に関する情報を通知する。表示制御部12は、操作子選択部23から操作子32に関する情報が通知されると、ディスプレイ13に表示されたマウスカーソルの位置を操作子32の位置に合わせる。
Thereafter, the
このように、上述したユーザインターフェース装置1では、センシングしたユーザの状態からユーザの操作意図を事前に推定し、ディスプレイ13に表示されたマウスカーソルの位置をその操作意図に対応した操作子の位置に合わせるようにしているため、ユーザは、視線は勿論のこと、意識・意図すら拘束されることなく、マウスカーソルの位置を決定することができる。したがって、ユーザは、マウスカーソルを所望の位置に移動させる間にも現在行っている作業を継続することができ、操作子の確認の瞬間だけ視線や意図・意識を奪われるのみですむ。
Thus, in the user interface device 1 described above, the user's operation intention is estimated in advance from the sensed user state, and the position of the mouse cursor displayed on the
なお、上述の説明では、推定した操作意図に対応した操作子の位置にマウスカーソルの位置を合わせて表示するものとしたが、本発明はこれに限定されるものではなく、現在のマウスカーソルの位置と推定した操作意図に対応した操作子の位置との間にマウスカーソルを移動させるようにしても構わない。 In the above description, the position of the mouse cursor is aligned with the position of the operator corresponding to the estimated operation intention. However, the present invention is not limited to this, and the current mouse cursor is displayed. The mouse cursor may be moved between the position and the position of the operator corresponding to the estimated operation intention.
また、このユーザインターフェース装置1においては、ユーザがマウスを操作していないときにはディスプレイ上にマウスカーソルを表示しないようにしてもよい。この場合には、ディスプレイ上にマウスカーソルが表示されていない間にユーザの操作意図を推定し、ユーザがマウスを僅かに動かした瞬間に、推定した操作意図に対応した操作子の位置にマウスカーソルの位置を合わせて表示することになる。したがって、仮に操作意図の推定を誤ってしまい、ユーザの操作意図とは異なる位置にマウスカーソルを表示させてしまった場合であっても、ユーザはそもそもマウスカーソルの初期位置を気にしないため、大した誤動作とは認識されない。 In the user interface device 1, the mouse cursor may not be displayed on the display when the user is not operating the mouse. In this case, the user's operation intention is estimated while the mouse cursor is not displayed on the display, and the mouse cursor is positioned at the position of the operator corresponding to the estimated operation intention at the moment when the user slightly moves the mouse. Will be displayed together. Therefore, even if the operation intention is incorrectly estimated and the mouse cursor is displayed at a position different from the user's operation intention, the user does not care about the initial position of the mouse cursor in the first place. It is not recognized as a malfunction.
次に、本発明を、チューナやCD(Compact Disk)再生部,MD(Mini-Disk:商標)再生部を備えたオーディオ再生装置としてのユーザインターフェース装置に適用した例について説明する。図7に示すように、ユーザインターフェース装置2は、インターフェース部40と、ユーザ意図推定モジュール部50とに大別される。このうち、インターフェース部40は、操作用ボタン41と、操作制御部42とを有し、ユーザ意図推定モジュール部50は、センサ部51と、操作意図推定部52と、操作子選択部53とを有している。
Next, an example in which the present invention is applied to a user interface device as an audio playback device including a tuner, a CD (Compact Disk) playback unit, and an MD (Mini-Disk: trademark) playback unit will be described. As shown in FIG. 7, the user interface device 2 is roughly divided into an
このようなユーザインターフェース装置2において、ユーザが操作用ボタン41を押圧操作すると、その操作に応じた操作信号が操作用ボタン41から操作制御部42に供給される。操作制御部42は、この操作信号に基づいて、ラジオ番組を再生したり、CDやMD(商標)を再生したりする。
In such a user interface device 2, when the user presses the operation button 41, an operation signal corresponding to the operation is supplied from the operation button 41 to the
一方、センサ部51は、ユーザが操作用ボタン41を操作していない場合であっても、ユーザの状態を常時センシングし続け、センシングした情報を操作意図推定部52に供給する。このセンサ部51としては、上述と同様に、CCDカメラ、赤外線カメラ、マイクロホン、発汗検出器、視線検出器、温度検出器など、ユーザの状態をセンシングできる種々のデバイスを用いることができる。
On the other hand, even when the user does not operate the operation button 41, the
操作意図推定部52は、このセンシングした多次元の情報に基づいてユーザの操作意図を推定し、推定した操作意図に関する情報を操作子選択部53に供給する。操作子選択部53は、推定された操作意図に対応する操作子を選択し、上述した操作制御部42からの問い合わせに応じて、選択した操作子を通知する。操作制御部42は、操作子選択部53から操作子が通知されると、その操作子に応じた制御を行う。
The operation
ここで、ユーザインターフェース装置2における操作子とは、上述した操作用ボタン41に近い概念であり、各操作子にはユーザの操作意図が対応付けられている。例えばオーディオ再生装置の場合、図8に示すような操作用ボタン60〜66が存在し、操作用ボタン60は、電源を入れたいという操作意図に、操作用ボタン61は、音量を調節したいという操作意図に、操作用ボタン62は、MD(商標)の再生を停止したいという操作意図に、操作用ボタン63は、MD(商標)を再生したいという操作意図に、操作用ボタン64は、選曲したいという操作意図に、操作用ボタン65は、MD(商標)を取り出したいという操作意図にそれぞれ対応している。これらの操作用ボタン60〜65は、操作子として把握することができる。一方、操作用ボタン66は、モードを選択するためのものであるが、これはその押圧操作回数により、MD(商標)再生モードにしたい、CD再生モードにしたい、ラジオモードにしたい、AUXモードにしたいという複数の操作意図に対応する。この操作用ボタン66においては、MD(商標)再生モード、CD再生モード、ラジオモード、AUXモードといった各モードを操作子として把握することができる。
Here, the operator in the user interface device 2 is a concept close to the operation button 41 described above, and each operator is associated with the user's operation intention. For example, in the case of an audio playback apparatus, there are
上述した操作意図推定部52は、センサ部41でセンシングした多次元の情報を入力とし、推論モデルを用いてユーザの操作意図を推定する。推論モデルとしては、上述したように、例えばベイジアンネットワークなど、センシングした多次元の情報と相関の高い操作意図を1つ選択できる推論モデルを用いることができる。
The operation
以下、操作意図推定部52における推論モデルとしてベイジアンネットワークを用いる場合について説明する。
Hereinafter, a case where a Bayesian network is used as an inference model in the operation
ベイジアンネットワークのネットワーク構造を構築するには、先ず「操作意図」のノードと、操作意図と相関があると思われるセンシング可能なノードとを決定し、各ノードの状態を定義する。例えば図9に示すように、「操作意図」のノードに加えて、「操作の時刻」、「手の移動」、及び「環境音スペクトル」の各ノードを定義することができる。このうち、「操作意図」のノードの状態としては、「MD再生モード」、「CD再生モード」、「ラジオモード」、「AUXモード」など、各操作子の種類を定義する。また、「操作の時刻」のノードの状態としては、例えば「朝」、「昼」、「夜」、「深夜」といった状態を定義し、「手の移動」のノードの状態としては、例えば「手の甲を上にして近づく」、「親指を上にして近づく」、「手が近づかない」といった状態を定義し、「環境音スペクトル」のノードの状態としては、例えば「高域」、「中域」、「低域」といった状態を定義する。 In order to construct a network structure of a Bayesian network, first, a node of “operation intention” and a node capable of sensing that seems to have a correlation with the operation intention are determined, and the state of each node is defined. For example, as shown in FIG. 9, in addition to the “operation intention” node, “operation time”, “movement of hand”, and “environment sound spectrum” nodes can be defined. Among these, as the state of the “operation intention” node, the type of each operation element such as “MD playback mode”, “CD playback mode”, “radio mode”, “AUX mode”, etc. is defined. In addition, for example, “morning”, “daytime”, “night”, and “late night” are defined as the “operation time” node state, and the “hand movement” node state is, for example, “ Define the states such as “approaching with the back of the hand up”, “approaching with the thumb up”, “not approaching”, and the node status of the “environmental sound spectrum” can be, for example, “high range”, “middle range” ”And“ low range ”are defined.
続いて、このような各ノードを繋ぎ、例えば図10に示すようなネットワーク構造を定義する。このネットワーク構造は、例えばK2アルゴリズムを用いて学習データから自動定義してもよく、因果関係を考慮して知識から定義してもよい。その後、例えば図11に示すように、各ノードのパラメータを定義する。このパラメータも、学習データから自動定義してもよく、知識から定義してもよい。 Subsequently, such nodes are connected to define, for example, a network structure as shown in FIG. This network structure may be automatically defined from learning data using, for example, the K2 algorithm, or may be defined from knowledge in consideration of the causal relationship. After that, as shown in FIG. 11, for example, parameters of each node are defined. This parameter may be automatically defined from learning data or may be defined from knowledge.
このようにしてベイジアンネットワークのネットワーク構造が構築された後、操作意図推定部52にセンサ部51でセンシングした多次元の情報が入力されると、操作意図推定部52は、入力された多次元の情報に基づいてユーザの操作意図を推定する。例えば図12(A)に示すように、「操作の時刻」は「夜」、「手の移動」は「手の甲を上にして近づく」、「環境音スペクトル」は「中域」という情報が操作意図推定部52に入力されると、操作意図推定部52は、同図(B)に示すように各操作意図についての値を生成する。この結果、「CD再生モード」の値が最も大きいため、操作意図推定部52は、ユーザの操作意図を「CD再生モード」と推定し、「CD再生モード」に関する情報を操作子選択部53に供給する。
When the multidimensional information sensed by the
その後、操作子選択部23は、「CD再生モード」に対応する操作子を選択し、操作制御部42からの問い合わせに応じて、操作子に関する情報を通知する。操作制御部42は、操作子選択部53から操作子に関する情報が通知されると、モードを「CD再生モード」に変更する。
Thereafter, the
このように、上述したユーザインターフェース装置2では、センシングしたユーザの状態からユーザの操作意図を事前に推定し、推定した操作意図に応じて操作制御するようにしているため、例えばCD再生に用いた場合には、ユーザがCD再生ボタンを押圧操作する前にCDが回転し始めることになり、ユーザが意図してから操作するまでの時間を短縮することができる。 As described above, in the user interface device 2 described above, the user's operation intention is estimated in advance from the sensed user's state, and the operation is controlled according to the estimated operation intention. In this case, the CD starts to rotate before the user presses the CD playback button, and the time from the user's intention to the operation can be shortened.
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
1,2 ユーザインターフェース装置、10 インターフェース部、11 マウス、12 表示制御部、13 ディスプレイ、20 ユーザ意図推定モジュール部、21 センサ部、22 操作意図推定部、23 操作子選択部、40 インターフェース部、41 操作用ボタン、42 操作制御部、50 ユーザ意図推定モジュール部、51 センサ部、52 操作意図推定部、53 操作子選択部
1, 2 User interface device, 10 Interface unit, 11 Mouse, 12 Display control unit, 13 Display, 20 User intention estimation module unit, 21 Sensor unit, 22 Operation intention estimation unit, 23 Operator selection unit, 40 Interface unit, 41 Operation buttons, 42 operation control unit, 50 user intention estimation module unit, 51 sensor unit, 52 operation intention estimation unit, 53 operator selection unit
Claims (4)
上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段と、
ユーザの状態をセンシングするセンサ手段と、
上記センサ手段によってセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定手段と、
上記操作意図推定手段によって推定された操作意図に応じて上記処理手段を制御する制御手段と
を備えることを特徴とするユーザインターフェース装置。 Interface means that can be operated by the user;
Processing means for performing predetermined processing in response to a user operation via the interface means;
Sensor means for sensing the user's condition;
Based on the state of the user sensed by the sensor means, an operation intention estimation means for estimating the user's operation intention in advance using an inference model;
And a control means for controlling the processing means in accordance with the operation intention estimated by the operation intention estimation means.
上記制御手段は、上記ポインティングデバイスによるポインティング位置を、推定された操作意図に応じた位置とするように上記処理手段を制御する
ことを特徴とする請求項1記載のユーザインターフェース装置。 The interface means has a pointing device,
The user interface device according to claim 1, wherein the control unit controls the processing unit so that a pointing position by the pointing device is a position corresponding to the estimated operation intention.
ユーザの状態をセンシングするセンシング工程と、
上記センシング工程にてセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定工程と、
上記操作意図推定工程にて推定された操作意図に応じて上記処理手段を制御する制御工程と
を有することを特徴とするユーザインターフェース方法。
A user interface method in a user interface device comprising: interface means capable of being operated by a user; and processing means for performing predetermined processing in response to a user operation via the interface means,
A sensing process for sensing the user's condition;
Based on the state of the user sensed in the sensing step, an operation intention estimation step of estimating the user's operation intention in advance using an inference model;
And a control step of controlling the processing means according to the operation intention estimated in the operation intention estimation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005130242A JP2006309448A (en) | 2005-04-27 | 2005-04-27 | User interface device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005130242A JP2006309448A (en) | 2005-04-27 | 2005-04-27 | User interface device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006309448A true JP2006309448A (en) | 2006-11-09 |
Family
ID=37476270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005130242A Pending JP2006309448A (en) | 2005-04-27 | 2005-04-27 | User interface device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006309448A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008140268A (en) * | 2006-12-04 | 2008-06-19 | Denso Corp | Operation estimation device and program |
US7987147B2 (en) | 2006-05-18 | 2011-07-26 | Sony Corporation | Information processing apparatus, information processing method, and program based on operator probability using sensors |
JP2016507112A (en) * | 2013-03-05 | 2016-03-07 | インテル コーポレイション | Complex perceptual input dialogue |
JP2019536131A (en) * | 2016-10-04 | 2019-12-12 | フェイスブック,インク. | Controls and interfaces for user interaction in virtual space |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11203006A (en) * | 1998-01-20 | 1999-07-30 | Fujitsu Ltd | User environment estimation device |
JPH11288342A (en) * | 1998-02-09 | 1999-10-19 | Toshiba Corp | Device and method for interfacing multimodal input/ output device |
JP2000187553A (en) * | 1991-06-20 | 2000-07-04 | Fuji Xerox Co Ltd | Input device and head mount display for input device |
JP2005011037A (en) * | 2003-06-18 | 2005-01-13 | National Institute Of Advanced Industrial & Technology | Pointing device |
-
2005
- 2005-04-27 JP JP2005130242A patent/JP2006309448A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000187553A (en) * | 1991-06-20 | 2000-07-04 | Fuji Xerox Co Ltd | Input device and head mount display for input device |
JPH11203006A (en) * | 1998-01-20 | 1999-07-30 | Fujitsu Ltd | User environment estimation device |
JPH11288342A (en) * | 1998-02-09 | 1999-10-19 | Toshiba Corp | Device and method for interfacing multimodal input/ output device |
JP2005011037A (en) * | 2003-06-18 | 2005-01-13 | National Institute Of Advanced Industrial & Technology | Pointing device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7987147B2 (en) | 2006-05-18 | 2011-07-26 | Sony Corporation | Information processing apparatus, information processing method, and program based on operator probability using sensors |
JP2008140268A (en) * | 2006-12-04 | 2008-06-19 | Denso Corp | Operation estimation device and program |
JP4670803B2 (en) * | 2006-12-04 | 2011-04-13 | 株式会社デンソー | Operation estimation apparatus and program |
JP2016507112A (en) * | 2013-03-05 | 2016-03-07 | インテル コーポレイション | Complex perceptual input dialogue |
JP2019536131A (en) * | 2016-10-04 | 2019-12-12 | フェイスブック,インク. | Controls and interfaces for user interaction in virtual space |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6002758B2 (en) | Screen editing method and apparatus for portable terminal with touch screen | |
US9760170B2 (en) | Generation of graphical feedback in a computer system | |
JP5944326B2 (en) | Eye tracker based context action | |
CN117170620A (en) | User interface for audio media controls | |
CN105599642B (en) | Seat Automatic adjustment method, device and terminal | |
KR101984590B1 (en) | Display device and controlling method thereof | |
CN103019604B (en) | Terminal and terminal control method | |
CN104464250B (en) | Remote control for programmable multimedia controller | |
KR101289318B1 (en) | Input device, input method as well as a corresponding computer-readable storage medium | |
KR101385813B1 (en) | Touch sensitive wireless navigation device for remote control | |
CN114020203A (en) | User interface for content streaming | |
CN113014931A (en) | User interface for viewing live video feeds and recording videos | |
JP6114996B2 (en) | System and method for gaze tracking | |
WO2009084140A1 (en) | Input device, input operation method, and input control program for electronic device | |
US9218544B2 (en) | Intelligent matcher based on situational or spatial orientation | |
US20110134032A1 (en) | Method for controlling touch control module and electronic device thereof | |
JPH0588842A (en) | Icon displaying system | |
MX2013000358A (en) | Systems and methods for dual use remote-control devices. | |
KR20130061527A (en) | Method for calibrating touch screen sensitivities and display device using the same | |
US20160378237A1 (en) | Media device with radial gesture control and methods for use therewith | |
JP2016139180A (en) | Information processing device, information processing method, program, and display device | |
JP2006309448A (en) | User interface device and method | |
JP2007104630A (en) | Video surveillance system | |
JP2012138076A (en) | User interface for exploring media content | |
US20090153483A1 (en) | Ambidextrous operated mouse |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100419 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110308 |