JP2006309448A - User interface device and method - Google Patents

User interface device and method Download PDF

Info

Publication number
JP2006309448A
JP2006309448A JP2005130242A JP2005130242A JP2006309448A JP 2006309448 A JP2006309448 A JP 2006309448A JP 2005130242 A JP2005130242 A JP 2005130242A JP 2005130242 A JP2005130242 A JP 2005130242A JP 2006309448 A JP2006309448 A JP 2006309448A
Authority
JP
Japan
Prior art keywords
user
operation intention
intention
unit
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005130242A
Other languages
Japanese (ja)
Inventor
Nobuya Otani
伸弥 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005130242A priority Critical patent/JP2006309448A/en
Publication of JP2006309448A publication Critical patent/JP2006309448A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a user interface device and method, capable of operating or preparing for operation while estimating a user's operation intention in advance. <P>SOLUTION: A sensor part 21 regularly continues to sense the user's state even when the user does not operate a mouse 11, and supplies the sensed information to an operation intention estimation part 22. The estimation part 22 estimates the user's operation intention based on the multidimentional sensed information in advance, and supplies information related to the estimated operation intention to an operator selection part 23. The operating element selection part 23 selects an operating element corresponding to the estimated operation intention and reports the selected operating element in response to an inquiry from a display control part 12. The display control part 12 fits, upon receipt of the report of the operating element from the selection part 23, the position of a mouse cursor displayed on a display 13 to the position of the reported operating element. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ユーザの操作意図を事前に推定して動作し、又は動作準備を行うことが可能なユーザインターフェース装置及びその方法に関する。   The present invention relates to a user interface device and a method thereof that can perform an operation or prepare for an operation by estimating a user's operation intention in advance.

ユーザが操作可能なユーザインターフェース装置においては、例えばポインティングデバイスによるポインティング操作など、ユーザの手を使った物理的な操作に応じて動作するのが通常である。しかしながら、特に四肢麻痺等の重度の障害者にとってはポインティングデバイスの表示位置をディスプレイ上のアイコン等の操作子に合わせることが困難であることから、ユーザの操作負担の軽減が求められていた。   A user interface device that can be operated by a user normally operates in accordance with a physical operation using a user's hand, such as a pointing operation using a pointing device. However, it is difficult for a person with severe disabilities such as paralysis of the limbs to adjust the display position of the pointing device to an operator such as an icon on the display.

そこで、従来、ポインティングデバイスの1つであるマウスを用いたポインティング操作に、ユーザの視線情報を利用することが提案されている。具体的に、下記非特許文献1では、完全にユーザの視線によりポインティング操作を行うAuto方式や、視線による大まかなポインティングを行った後でポインティングデバイスをマウスに切り替えるManual方式などが提案されている。また、下記特許文献1では、ポインティング操作にユーザの視線情報を利用すると共に、ポインティングデバイスの表示位置に最も近い操作子との間に、ポインティングデバイスを操作子に引き寄せる吸着機能を持たせることが提案されている。このようなポインティングデバイスを備えたユーザインターフェース装置によれば、ポインティング操作に際して、ユーザは基本的に視線を動かすのみでよいため、ユーザの操作負担を軽減することができる。   Therefore, conventionally, it has been proposed to use the user's line-of-sight information for a pointing operation using a mouse which is one of pointing devices. Specifically, the following Non-Patent Document 1 proposes an Auto method in which a pointing operation is completely performed by a user's line of sight, a Manual method in which a pointing device is switched to a mouse after performing a rough pointing by a line of sight. Further, in Patent Document 1 below, it is proposed to use a user's line-of-sight information for a pointing operation, and to have a suction function that draws the pointing device to the operator between the operator closest to the display position of the pointing device. Has been. According to the user interface device provided with such a pointing device, the user basically only needs to move his / her line of sight when performing the pointing operation, so that the operation burden on the user can be reduced.

大和正武 外,「一般的なGUIに適した視線・マウス併用型ターゲット選択方式」,情報処理学会 ジャーナル,Vol.42,No.06Masatake Yamato, “Gaze / Mouse Combination Target Selection Method Suitable for General GUI”, Journal of Information Processing Society of Japan, Vol.42, No.06 特開2000−47823号公報JP 2000-47823 A

しかしながら、上記非特許文献1におけるAuto方式では、視線認識の精度に起因してアイコンやメニュー等の選択に長時間を要しており、Manual方式でも、視線を移動させてからでなければ視線の場所を計算できないため、実際にポインティングデバイスの表示位置、すなわちマウスカーソルの位置が初期移動するまでには多少の時間を要していた。また、上記特許文献1のポインティングデバイスは、吸着機能を有しているものの、実際にマウスカーソルの位置が初期移動するまでには多少の時間を要していた。   However, in the Auto method in Non-Patent Document 1, it takes a long time to select icons, menus, etc. due to the accuracy of gaze recognition. Even in the Manual method, the line of sight is not changed unless the line of sight is moved. Since the location cannot be calculated, it took some time until the display position of the pointing device, that is, the position of the mouse cursor initially moved. In addition, although the pointing device of Patent Document 1 has an adsorption function, it takes some time until the position of the mouse cursor actually moves.

さらに、あらゆる従来のポインティングデバイスでは、ユーザは現在行っている作業にとって大切な意識・意図を必ずポインティング操作に向けなければならず、ポインティング操作を行おうとする度に、現在の作業に対する注意を反らすこととなっていた。   In addition, with any conventional pointing device, the user must always direct the consciousness / intention important to the current work to the pointing operation, and every time a pointing operation is performed, the user is warned of the current work. It was.

このような問題は、マウス等のポインティングデバイスを備えたユーザインターフェース装置の場合に限らず、他のユーザインターフェース装置においても同様である。   Such a problem is not limited to the case of a user interface device provided with a pointing device such as a mouse, and the same applies to other user interface devices.

本発明は、このような従来の実情に鑑みて提案されたものであり、ユーザの操作意図を事前に推定して動作し、又は動作準備を行うことが可能なユーザインターフェース装置及びその方法を提供することを目的とする。   The present invention has been proposed in view of such a conventional situation, and provides a user interface apparatus and method capable of operating or preparing for operation by estimating a user's operation intention in advance. The purpose is to do.

上述した目的を達成するために、本発明に係るユーザインターフェース装置は、ユーザによる操作が可能なインターフェース手段と、上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段と、ユーザの状態をセンシングするセンサ手段と、上記センサ手段によってセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定手段と、上記操作意図推定手段によって推定された操作意図に応じて上記処理手段を制御する制御手段とを備えることを特徴とする。   In order to achieve the above-described object, a user interface device according to the present invention includes an interface unit that can be operated by a user, a processing unit that performs a predetermined process in accordance with a user operation via the interface unit, and a user A sensor means for sensing the state of the user, an operation intention estimation means for estimating the user's operation intention in advance using an inference model based on the state of the user sensed by the sensor means, and the operation intention estimation means. Control means for controlling the processing means in accordance with the estimated operation intention.

また、上述した目的を達成するために、本発明に係るユーザインターフェース方法は、ユーザによる操作が可能なインターフェース手段と、上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段とを備えたユーザインターフェース装置におけるユーザインターフェース方法であって、ユーザの状態をセンシングするセンシング工程と、上記センシング工程にてセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定工程と、上記操作意図推定工程にて推定された操作意図に応じて上記処理手段を制御する制御工程とを有することを特徴とする。   In order to achieve the above-described object, a user interface method according to the present invention includes an interface unit that can be operated by a user, and a processing unit that performs a predetermined process in response to a user operation via the interface unit. A user interface method in a user interface device comprising: a sensing step for sensing a user state; and based on the user state sensed in the sensing step, the user's operation intention is determined using an inference model. It has the operation intention estimation process estimated in advance, and the control process which controls the said process means according to the operation intention estimated in the said operation intention estimation process.

本発明に係るユーザインターフェース装置及びその方法によれば、センシングしたユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定し、推定された操作意図に応じて動作し、又は動作準備を行うことが可能であるため、ユーザが意図してから操作するまでの時間を短縮することができる。また、この際、ユーザインターフェース装置のユーザがあまり意識しない初期状態について動作又は動作準備を行うようにすれば、誤動作した場合であっても大した問題とは認識されず、ユーザは利便性のみを享受することができる。   According to the user interface device and the method thereof according to the present invention, based on the sensed user state, the operation intention of the user is estimated in advance using an inference model, and the user operates according to the estimated operation intention. Since it is possible to prepare for the operation, it is possible to shorten the time from the user's intention to the operation. At this time, if the user of the user interface device operates or prepares for an initial state that is not so conscious, even if it malfunctions, it will not be recognized as a major problem, and the user only has convenience. You can enjoy it.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

以下では先ず、本発明を、ディスプレイとポインティングデバイスとしてのマウスとを備えたユーザインターフェース装置に適用した例について説明する。図1に示すように、ユーザインターフェース装置1は、インターフェース部10と、ユーザ意図推定モジュール部20とに大別される。このうち、インターフェース部10は、マウス11と、表示制御部12と、ディスプレイ13とを有し、ユーザ意図推定モジュール部20は、センサ部21と、操作意図推定部22と、操作子選択部23とを有している。   Hereinafter, first, an example in which the present invention is applied to a user interface device including a display and a mouse as a pointing device will be described. As shown in FIG. 1, the user interface device 1 is roughly divided into an interface unit 10 and a user intention estimation module unit 20. Among these, the interface unit 10 includes a mouse 11, a display control unit 12, and a display 13. The user intention estimation module unit 20 includes a sensor unit 21, an operation intention estimation unit 22, and an operator selection unit 23. And have.

このようなユーザインターフェース装置1において、ユーザがディスプレイ13に表示されたマウスカーソルを所望の位置に移動させるためにマウス11を操作すると、その操作に応じた操作信号がマウス11から表示制御部12に供給される。表示制御部12は、この操作信号に基づいて、ディスプレイ13に表示されたマウスカーソルの位置を変更する。また、ユーザがマウスカーソルの位置をアイコン等の操作子に合わせた状態でマウス11をクリック等すると、その操作に応じた操作信号がマウス11から表示制御部12に供給される。表示制御部12は、この操作信号に基づいて、ディスプレイ13の表示内容を変更する。   In such a user interface device 1, when the user operates the mouse 11 to move the mouse cursor displayed on the display 13 to a desired position, an operation signal corresponding to the operation is sent from the mouse 11 to the display control unit 12. Supplied. The display control unit 12 changes the position of the mouse cursor displayed on the display 13 based on the operation signal. Further, when the user clicks the mouse 11 with the position of the mouse cursor set to an operator such as an icon, an operation signal corresponding to the operation is supplied from the mouse 11 to the display control unit 12. The display control unit 12 changes the display content of the display 13 based on the operation signal.

一方、センサ部21は、ユーザがマウス11を操作していない場合であっても、ユーザの状態を常時センシングし続け、センシングした情報を操作意図推定部22に供給する。このセンサ部21としては、例えば、CCD(Charge Coupled Device)カメラ、赤外線カメラ、マイクロホン、発汗検出器、視線検出器、温度検出器など、ユーザの状態をセンシングできる種々のデバイスを用いることができるが、ユーザが特別な装置を装着する必要のないものが好ましい。また、センシングする情報としては、例えば下記の表1のようなものが挙げられるが、ユーザが意図しなくとも発せられる情報が特に好ましい。なお、この表1において、「落ち着き具合」は、例えばユーザの顔の動き量から判断することができ、「熱中度合い」は、例えばユーザの顔とディスプレイ13との距離から判断することができる。   On the other hand, even when the user is not operating the mouse 11, the sensor unit 21 continuously senses the user's state and supplies the sensed information to the operation intention estimation unit 22. As the sensor unit 21, for example, various devices capable of sensing a user's state, such as a CCD (Charge Coupled Device) camera, an infrared camera, a microphone, a sweat detector, a line-of-sight detector, and a temperature detector can be used. Those that do not require the user to wear a special device are preferred. In addition, examples of information to be sensed include those shown in Table 1 below, but information that is generated even if the user does not intend is particularly preferable. In Table 1, “settlement” can be determined from, for example, the amount of movement of the user's face, and “degree of enthusiasm” can be determined from, for example, the distance between the user's face and the display 13.

Figure 2006309448
Figure 2006309448

操作意図推定部22は、このセンシングした多次元の情報に基づいてユーザの操作意図を事前に推定し、推定した操作意図に関する情報を操作子選択部23に供給する。操作子選択部23は、推定された操作意図に対応する操作子を選択し、上述した表示制御部12からの問い合わせに応じて、選択した操作子を通知する。表示制御部12は、操作子選択部23から操作子が通知されると、ディスプレイ13に表示されたマウスカーソルの位置を通知された操作子の位置に合わせる。   The operation intention estimation unit 22 estimates a user's operation intention in advance based on the sensed multidimensional information, and supplies information related to the estimated operation intention to the operator selection unit 23. The operation element selection unit 23 selects an operation element corresponding to the estimated operation intention, and notifies the selected operation element in response to the inquiry from the display control unit 12 described above. When the operator is notified from the operator selector 23, the display controller 12 adjusts the position of the mouse cursor displayed on the display 13 to the position of the notified operator.

ここで、ユーザインターフェース装置1における操作子とは、ディスプレイ13上でマウス11によるクリック等が可能な箇所であり、各操作子にはユーザの操作意図が対応付けられている。例えば、ディスプレイ13に表示されたウィンドウの場合、図2に示すような操作子30〜38が存在し、操作子30は、ウィンドウを最小化したいという操作意図に、操作子31は、ウィンドウを最大化したいという操作意図に、操作子32は、ウィンドウを閉じたい(クローズ)という操作意図にそれぞれ対応している。また、操作子33〜36は、それぞれ表示領域を上、下、左、右にスクロールさせたいという操作意図に対応しており、操作子37,38は、それぞれ表示領域を上下、左右にスライドさせたいという操作意図に対応している。   Here, the operator in the user interface device 1 is a place where the mouse 11 can be clicked on the display 13 and the operator's operation intention is associated with each operator. For example, in the case of a window displayed on the display 13, there are operation elements 30 to 38 as shown in FIG. 2, and the operation element 30 has the operation intention to minimize the window, and the operation element 31 maximizes the window. The operation element 32 corresponds to the operation intention that the user wants to close the window (close). In addition, the operators 33 to 36 correspond to the operation intention of scrolling the display area up, down, left, and right, respectively, and the operators 37 and 38 slide the display area up and down and left and right, respectively. It corresponds to the operation intention of wanting.

上述した操作意図推定部22は、センサ部21でセンシングした多次元の情報を入力とし、推論モデルを用いてユーザの操作意図を推定する。推論モデルとしては、例えば、ベイジアンネットワーク、ダイナミックベイジアンネットワーク、サポートベクタマシン、ブースティング、隠れマルコフモデル、ニューラルネットワーク等を用いることができる。また、単なるif〜then・・・といった決定論的なモデルを用いることもできる。つまり、センシングした多次元の情報と相関の高い操作意図を1つ選択できる推論モデルであればよい。   The operation intention estimation unit 22 described above receives multidimensional information sensed by the sensor unit 21 as input, and estimates a user's operation intention using an inference model. As the inference model, for example, a Bayesian network, a dynamic Bayesian network, a support vector machine, boosting, a hidden Markov model, a neural network, or the like can be used. Also, a deterministic model such as “if-then” can be used. In other words, any inference model that can select one operation intention having high correlation with sensed multidimensional information may be used.

以下、操作意図推定部22における推論モデルとしてベイジアンネットワークを用いる場合について説明する。   Hereinafter, a case where a Bayesian network is used as an inference model in the operation intention estimation unit 22 will be described.

ベイジアンネットワークのネットワーク構造を構築するには、先ず「操作意図」のノードと、操作意図と相関があると思われるセンシング可能なノードとを決定し、各ノードの状態を定義する。例えば図3に示すように、「操作意図」のノードに加えて、「発汗量」、「手の場所」、及び「熱中度合い」の各ノードを定義することができる。このうち、「操作意図」のノードの状態としては、「最大化」、「最小化」、「クローズ」、「上スクロール」、「下スクロール」など、各操作子の種類を定義する。また、「発汗量」のノードの状態としては、例えば「多い」、「少ない」、「無い」といった状態を定義し、「手の場所」のノードの状態としては、例えば「マウス」、「顔」、「キーボード」といった状態を定義し、「熱中度合い」のノードの状態としては、例えば「熱中」、「普通」、「飽き」といった状態を定義する。   In order to construct a network structure of a Bayesian network, first, a node of “operation intention” and a node capable of sensing that seems to have a correlation with the operation intention are determined, and the state of each node is defined. For example, as shown in FIG. 3, in addition to the “operation intention” node, “sweat amount”, “place of hand”, and “degree of enthusiasm” nodes can be defined. Among these, as the state of the “operation intention” node, the type of each operation element such as “maximize”, “minimize”, “close”, “up scroll”, “down scroll”, and the like is defined. In addition, as the state of the “sweat amount” node, for example, “high”, “low”, and “no” are defined, and as the “hand place” node state, for example, “mouse”, “face” ”And“ keyboard ”are defined, and the state of“ heated ”, for example,“ heated ”,“ ordinary ”, and“ bored ”are defined as the state of the node.

続いて、このような各ノードを繋ぎ、例えば図4に示すようなネットワーク構造を定義する。このネットワーク構造は、例えばK2アルゴリズムを用いて学習データから自動定義してもよく、因果関係を考慮して知識から定義してもよい。その後、例えば図5に示すように、各ノードのパラメータを定義する。このパラメータも、学習データから自動定義してもよく、知識から定義してもよい。   Subsequently, such nodes are connected to define, for example, a network structure as shown in FIG. This network structure may be automatically defined from learning data using, for example, the K2 algorithm, or may be defined from knowledge in consideration of the causal relationship. Thereafter, as shown in FIG. 5, for example, parameters of each node are defined. This parameter may be automatically defined from learning data or may be defined from knowledge.

このようにしてベイジアンネットワークのネットワーク構造が構築された後、操作意図推定部22にセンサ部21でセンシングした多次元の情報が入力されると、操作意図推定部22は、入力された多次元の情報に基づいてユーザの操作意図を推定する。例えば図6(A)に示すように、「発汗量」は「多い」、「熱中度合い」は「飽き」、「手の場所」は「顔」という情報が操作意図推定部22に入力されると、操作意図推定部22は、同図(B)に示すように各操作意図についての値を生成する。この結果、「クローズ」の値が最も大きいため、操作意図推定部22は、ユーザの操作意図を「クローズ」と推定し、「クローズ」に関する情報を操作子選択部23に供給する。   After the network structure of the Bayesian network is constructed in this way, when multidimensional information sensed by the sensor unit 21 is input to the operation intention estimation unit 22, the operation intention estimation unit 22 receives the input multidimensional information. The user's operation intention is estimated based on the information. For example, as shown in FIG. 6A, the information “the amount of sweating” is “large”, “the degree of enthusiasm” is “getting bored”, and “the place of the hand” is “face” is input to the operation intention estimation unit 22. And the operation intention estimation part 22 produces | generates the value about each operation intention, as shown to the same figure (B). As a result, since the value of “close” is the largest, the operation intention estimation unit 22 estimates that the user's operation intention is “close” and supplies information related to “close” to the operator selection unit 23.

その後、操作子選択部23は、「クローズ」に対応する操作子、例えば図2における操作子32を選択し、表示制御部12からの問い合わせに応じて、操作子32に関する情報を通知する。表示制御部12は、操作子選択部23から操作子32に関する情報が通知されると、ディスプレイ13に表示されたマウスカーソルの位置を操作子32の位置に合わせる。   Thereafter, the operator selector 23 selects an operator corresponding to “close”, for example, the operator 32 in FIG. 2, and notifies information related to the operator 32 in response to an inquiry from the display controller 12. When the information regarding the operation element 32 is notified from the operation element selection unit 23, the display control unit 12 adjusts the position of the mouse cursor displayed on the display 13 to the position of the operation element 32.

このように、上述したユーザインターフェース装置1では、センシングしたユーザの状態からユーザの操作意図を事前に推定し、ディスプレイ13に表示されたマウスカーソルの位置をその操作意図に対応した操作子の位置に合わせるようにしているため、ユーザは、視線は勿論のこと、意識・意図すら拘束されることなく、マウスカーソルの位置を決定することができる。したがって、ユーザは、マウスカーソルを所望の位置に移動させる間にも現在行っている作業を継続することができ、操作子の確認の瞬間だけ視線や意図・意識を奪われるのみですむ。   Thus, in the user interface device 1 described above, the user's operation intention is estimated in advance from the sensed user state, and the position of the mouse cursor displayed on the display 13 is set to the position of the operator corresponding to the operation intention. Since they are matched, the user can determine the position of the mouse cursor without being restricted not only by the line of sight but also by consciousness and intention. Therefore, the user can continue the current work even while moving the mouse cursor to a desired position, and it is only necessary to take away the line of sight, intention, and consciousness only at the moment of confirmation of the operation element.

なお、上述の説明では、推定した操作意図に対応した操作子の位置にマウスカーソルの位置を合わせて表示するものとしたが、本発明はこれに限定されるものではなく、現在のマウスカーソルの位置と推定した操作意図に対応した操作子の位置との間にマウスカーソルを移動させるようにしても構わない。   In the above description, the position of the mouse cursor is aligned with the position of the operator corresponding to the estimated operation intention. However, the present invention is not limited to this, and the current mouse cursor is displayed. The mouse cursor may be moved between the position and the position of the operator corresponding to the estimated operation intention.

また、このユーザインターフェース装置1においては、ユーザがマウスを操作していないときにはディスプレイ上にマウスカーソルを表示しないようにしてもよい。この場合には、ディスプレイ上にマウスカーソルが表示されていない間にユーザの操作意図を推定し、ユーザがマウスを僅かに動かした瞬間に、推定した操作意図に対応した操作子の位置にマウスカーソルの位置を合わせて表示することになる。したがって、仮に操作意図の推定を誤ってしまい、ユーザの操作意図とは異なる位置にマウスカーソルを表示させてしまった場合であっても、ユーザはそもそもマウスカーソルの初期位置を気にしないため、大した誤動作とは認識されない。   In the user interface device 1, the mouse cursor may not be displayed on the display when the user is not operating the mouse. In this case, the user's operation intention is estimated while the mouse cursor is not displayed on the display, and the mouse cursor is positioned at the position of the operator corresponding to the estimated operation intention at the moment when the user slightly moves the mouse. Will be displayed together. Therefore, even if the operation intention is incorrectly estimated and the mouse cursor is displayed at a position different from the user's operation intention, the user does not care about the initial position of the mouse cursor in the first place. It is not recognized as a malfunction.

次に、本発明を、チューナやCD(Compact Disk)再生部,MD(Mini-Disk:商標)再生部を備えたオーディオ再生装置としてのユーザインターフェース装置に適用した例について説明する。図7に示すように、ユーザインターフェース装置2は、インターフェース部40と、ユーザ意図推定モジュール部50とに大別される。このうち、インターフェース部40は、操作用ボタン41と、操作制御部42とを有し、ユーザ意図推定モジュール部50は、センサ部51と、操作意図推定部52と、操作子選択部53とを有している。   Next, an example in which the present invention is applied to a user interface device as an audio playback device including a tuner, a CD (Compact Disk) playback unit, and an MD (Mini-Disk: trademark) playback unit will be described. As shown in FIG. 7, the user interface device 2 is roughly divided into an interface unit 40 and a user intention estimation module unit 50. Among these, the interface unit 40 includes an operation button 41 and an operation control unit 42, and the user intention estimation module unit 50 includes a sensor unit 51, an operation intention estimation unit 52, and an operator selection unit 53. Have.

このようなユーザインターフェース装置2において、ユーザが操作用ボタン41を押圧操作すると、その操作に応じた操作信号が操作用ボタン41から操作制御部42に供給される。操作制御部42は、この操作信号に基づいて、ラジオ番組を再生したり、CDやMD(商標)を再生したりする。   In such a user interface device 2, when the user presses the operation button 41, an operation signal corresponding to the operation is supplied from the operation button 41 to the operation control unit 42. Based on the operation signal, the operation control unit 42 reproduces a radio program or reproduces a CD or MD (trademark).

一方、センサ部51は、ユーザが操作用ボタン41を操作していない場合であっても、ユーザの状態を常時センシングし続け、センシングした情報を操作意図推定部52に供給する。このセンサ部51としては、上述と同様に、CCDカメラ、赤外線カメラ、マイクロホン、発汗検出器、視線検出器、温度検出器など、ユーザの状態をセンシングできる種々のデバイスを用いることができる。   On the other hand, even when the user does not operate the operation button 41, the sensor unit 51 continuously senses the user's state and supplies the sensed information to the operation intention estimation unit 52. As the sensor unit 51, as described above, various devices that can sense the user's state, such as a CCD camera, an infrared camera, a microphone, a sweat detector, a line-of-sight detector, and a temperature detector, can be used.

操作意図推定部52は、このセンシングした多次元の情報に基づいてユーザの操作意図を推定し、推定した操作意図に関する情報を操作子選択部53に供給する。操作子選択部53は、推定された操作意図に対応する操作子を選択し、上述した操作制御部42からの問い合わせに応じて、選択した操作子を通知する。操作制御部42は、操作子選択部53から操作子が通知されると、その操作子に応じた制御を行う。   The operation intention estimation unit 52 estimates the user's operation intention based on the sensed multidimensional information, and supplies information related to the estimated operation intention to the operator selection unit 53. The operation element selection unit 53 selects an operation element corresponding to the estimated operation intention, and notifies the selected operation element in response to the inquiry from the operation control unit 42 described above. When the operation controller 42 is notified of the operation element from the operation element selector 53, the operation control unit 42 performs control according to the operation element.

ここで、ユーザインターフェース装置2における操作子とは、上述した操作用ボタン41に近い概念であり、各操作子にはユーザの操作意図が対応付けられている。例えばオーディオ再生装置の場合、図8に示すような操作用ボタン60〜66が存在し、操作用ボタン60は、電源を入れたいという操作意図に、操作用ボタン61は、音量を調節したいという操作意図に、操作用ボタン62は、MD(商標)の再生を停止したいという操作意図に、操作用ボタン63は、MD(商標)を再生したいという操作意図に、操作用ボタン64は、選曲したいという操作意図に、操作用ボタン65は、MD(商標)を取り出したいという操作意図にそれぞれ対応している。これらの操作用ボタン60〜65は、操作子として把握することができる。一方、操作用ボタン66は、モードを選択するためのものであるが、これはその押圧操作回数により、MD(商標)再生モードにしたい、CD再生モードにしたい、ラジオモードにしたい、AUXモードにしたいという複数の操作意図に対応する。この操作用ボタン66においては、MD(商標)再生モード、CD再生モード、ラジオモード、AUXモードといった各モードを操作子として把握することができる。   Here, the operator in the user interface device 2 is a concept close to the operation button 41 described above, and each operator is associated with the user's operation intention. For example, in the case of an audio playback apparatus, there are operation buttons 60 to 66 as shown in FIG. 8, the operation button 60 is intended to be turned on, and the operation button 61 is intended to be adjusted to adjust the volume. The operation button 62 is intended to stop playback of MD (trademark), the operation button 63 is intended to play MD (trademark), and the operation button 64 is intended to select music. The operation buttons 65 correspond to the operation intentions for extracting the MD (trademark). These operation buttons 60 to 65 can be grasped as operators. On the other hand, the operation button 66 is for selecting a mode. Depending on the number of pressing operations, the operation button 66 may be set to the MD (trademark) playback mode, the CD playback mode, the radio mode, or the AUX mode. Correspond to multiple operation intentions that you want to do. The operation button 66 can grasp each mode such as MD (trademark) reproduction mode, CD reproduction mode, radio mode, and AUX mode as an operator.

上述した操作意図推定部52は、センサ部41でセンシングした多次元の情報を入力とし、推論モデルを用いてユーザの操作意図を推定する。推論モデルとしては、上述したように、例えばベイジアンネットワークなど、センシングした多次元の情報と相関の高い操作意図を1つ選択できる推論モデルを用いることができる。   The operation intention estimation unit 52 described above receives multidimensional information sensed by the sensor unit 41 as input, and estimates the user's operation intention using an inference model. As the inference model, as described above, an inference model that can select one operation intention highly correlated with sensed multidimensional information, such as a Bayesian network, can be used.

以下、操作意図推定部52における推論モデルとしてベイジアンネットワークを用いる場合について説明する。   Hereinafter, a case where a Bayesian network is used as an inference model in the operation intention estimation unit 52 will be described.

ベイジアンネットワークのネットワーク構造を構築するには、先ず「操作意図」のノードと、操作意図と相関があると思われるセンシング可能なノードとを決定し、各ノードの状態を定義する。例えば図9に示すように、「操作意図」のノードに加えて、「操作の時刻」、「手の移動」、及び「環境音スペクトル」の各ノードを定義することができる。このうち、「操作意図」のノードの状態としては、「MD再生モード」、「CD再生モード」、「ラジオモード」、「AUXモード」など、各操作子の種類を定義する。また、「操作の時刻」のノードの状態としては、例えば「朝」、「昼」、「夜」、「深夜」といった状態を定義し、「手の移動」のノードの状態としては、例えば「手の甲を上にして近づく」、「親指を上にして近づく」、「手が近づかない」といった状態を定義し、「環境音スペクトル」のノードの状態としては、例えば「高域」、「中域」、「低域」といった状態を定義する。   In order to construct a network structure of a Bayesian network, first, a node of “operation intention” and a node capable of sensing that seems to have a correlation with the operation intention are determined, and the state of each node is defined. For example, as shown in FIG. 9, in addition to the “operation intention” node, “operation time”, “movement of hand”, and “environment sound spectrum” nodes can be defined. Among these, as the state of the “operation intention” node, the type of each operation element such as “MD playback mode”, “CD playback mode”, “radio mode”, “AUX mode”, etc. is defined. In addition, for example, “morning”, “daytime”, “night”, and “late night” are defined as the “operation time” node state, and the “hand movement” node state is, for example, “ Define the states such as “approaching with the back of the hand up”, “approaching with the thumb up”, “not approaching”, and the node status of the “environmental sound spectrum” can be, for example, “high range”, “middle range” ”And“ low range ”are defined.

続いて、このような各ノードを繋ぎ、例えば図10に示すようなネットワーク構造を定義する。このネットワーク構造は、例えばK2アルゴリズムを用いて学習データから自動定義してもよく、因果関係を考慮して知識から定義してもよい。その後、例えば図11に示すように、各ノードのパラメータを定義する。このパラメータも、学習データから自動定義してもよく、知識から定義してもよい。   Subsequently, such nodes are connected to define, for example, a network structure as shown in FIG. This network structure may be automatically defined from learning data using, for example, the K2 algorithm, or may be defined from knowledge in consideration of the causal relationship. After that, as shown in FIG. 11, for example, parameters of each node are defined. This parameter may be automatically defined from learning data or may be defined from knowledge.

このようにしてベイジアンネットワークのネットワーク構造が構築された後、操作意図推定部52にセンサ部51でセンシングした多次元の情報が入力されると、操作意図推定部52は、入力された多次元の情報に基づいてユーザの操作意図を推定する。例えば図12(A)に示すように、「操作の時刻」は「夜」、「手の移動」は「手の甲を上にして近づく」、「環境音スペクトル」は「中域」という情報が操作意図推定部52に入力されると、操作意図推定部52は、同図(B)に示すように各操作意図についての値を生成する。この結果、「CD再生モード」の値が最も大きいため、操作意図推定部52は、ユーザの操作意図を「CD再生モード」と推定し、「CD再生モード」に関する情報を操作子選択部53に供給する。   When the multidimensional information sensed by the sensor unit 51 is input to the operation intention estimation unit 52 after the network structure of the Bayesian network is constructed in this way, the operation intention estimation unit 52 receives the input multidimensional information. The user's operation intention is estimated based on the information. For example, as shown in FIG. 12A, the “operation time” is “night”, the “movement of the hand” is “approaching with the back of the hand up”, and the “environment sound spectrum” is information “middle range”. When input to the intention estimation unit 52, the operation intention estimation unit 52 generates a value for each operation intention as shown in FIG. As a result, since the value of “CD playback mode” is the largest, the operation intention estimation unit 52 estimates the user's operation intention as “CD playback mode”, and sends information related to “CD playback mode” to the operator selection unit 53. Supply.

その後、操作子選択部23は、「CD再生モード」に対応する操作子を選択し、操作制御部42からの問い合わせに応じて、操作子に関する情報を通知する。操作制御部42は、操作子選択部53から操作子に関する情報が通知されると、モードを「CD再生モード」に変更する。   Thereafter, the operator selection unit 23 selects an operator corresponding to the “CD playback mode”, and notifies information related to the operator in response to an inquiry from the operation control unit 42. The operation control unit 42 changes the mode to “CD playback mode” when information on the operation unit is notified from the operation unit selection unit 53.

このように、上述したユーザインターフェース装置2では、センシングしたユーザの状態からユーザの操作意図を事前に推定し、推定した操作意図に応じて操作制御するようにしているため、例えばCD再生に用いた場合には、ユーザがCD再生ボタンを押圧操作する前にCDが回転し始めることになり、ユーザが意図してから操作するまでの時間を短縮することができる。   As described above, in the user interface device 2 described above, the user's operation intention is estimated in advance from the sensed user's state, and the operation is controlled according to the estimated operation intention. In this case, the CD starts to rotate before the user presses the CD playback button, and the time from the user's intention to the operation can be shortened.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

本実施の形態におけるユーザインターフェース装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the user interface apparatus in this Embodiment. ディスプレイ上の操作子の一例を示す図である。It is a figure which shows an example of the operation element on a display. ベイジアンネットワークで定義されるノードとその状態の一例を示す図である。It is a figure which shows an example of the node defined in a Bayesian network, and its state. ノード同士を繋いだネットワーク構造の一例を示す図である。It is a figure which shows an example of the network structure which connected nodes. 各ノードについて定義されるパラメータの一例を示す図である。It is a figure which shows an example of the parameter defined about each node. ユーザの操作意図の推定例を示す図である。It is a figure which shows the example of estimation of a user's operation intention. 本実施の形態におけるユーザインターフェース装置の概略構成の他の例を示す図である。It is a figure which shows the other example of schematic structure of the user interface apparatus in this Embodiment. オーディオ再生装置における操作子を説明するための図である。It is a figure for demonstrating the operation element in an audio reproducing apparatus. ベイジアンネットワークで定義されるノードとその状態の一例を示す図である。It is a figure which shows an example of the node defined in a Bayesian network, and its state. ノード同士を繋いだネットワーク構造の一例を示す図である。It is a figure which shows an example of the network structure which connected nodes. 各ノードについて定義されるパラメータの一例を示す図である。It is a figure which shows an example of the parameter defined about each node. ユーザの操作意図の推定例を示す図である。It is a figure which shows the example of estimation of a user's operation intention.

符号の説明Explanation of symbols

1,2 ユーザインターフェース装置、10 インターフェース部、11 マウス、12 表示制御部、13 ディスプレイ、20 ユーザ意図推定モジュール部、21 センサ部、22 操作意図推定部、23 操作子選択部、40 インターフェース部、41 操作用ボタン、42 操作制御部、50 ユーザ意図推定モジュール部、51 センサ部、52 操作意図推定部、53 操作子選択部
1, 2 User interface device, 10 Interface unit, 11 Mouse, 12 Display control unit, 13 Display, 20 User intention estimation module unit, 21 Sensor unit, 22 Operation intention estimation unit, 23 Operator selection unit, 40 Interface unit, 41 Operation buttons, 42 operation control unit, 50 user intention estimation module unit, 51 sensor unit, 52 operation intention estimation unit, 53 operator selection unit

Claims (4)

ユーザによる操作が可能なインターフェース手段と、
上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段と、
ユーザの状態をセンシングするセンサ手段と、
上記センサ手段によってセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定手段と、
上記操作意図推定手段によって推定された操作意図に応じて上記処理手段を制御する制御手段と
を備えることを特徴とするユーザインターフェース装置。
Interface means that can be operated by the user;
Processing means for performing predetermined processing in response to a user operation via the interface means;
Sensor means for sensing the user's condition;
Based on the state of the user sensed by the sensor means, an operation intention estimation means for estimating the user's operation intention in advance using an inference model;
And a control means for controlling the processing means in accordance with the operation intention estimated by the operation intention estimation means.
上記インターフェース手段は、ポインティングデバイスを有し、
上記制御手段は、上記ポインティングデバイスによるポインティング位置を、推定された操作意図に応じた位置とするように上記処理手段を制御する
ことを特徴とする請求項1記載のユーザインターフェース装置。
The interface means has a pointing device,
The user interface device according to claim 1, wherein the control unit controls the processing unit so that a pointing position by the pointing device is a position corresponding to the estimated operation intention.
上記推論モデルは、ベイジアンネットワーク、ダイナミックベイジアンネットワーク、サポートベクタマシン、ブースティング、隠れマルコフモデル、ニューラルネットワーク、又は決定論的なモデルであることを特徴とする請求項1記載のユーザインターフェース装置。   2. The user interface device according to claim 1, wherein the inference model is a Bayesian network, a dynamic Bayesian network, a support vector machine, boosting, a hidden Markov model, a neural network, or a deterministic model. ユーザによる操作が可能なインターフェース手段と、上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段とを備えたユーザインターフェース装置におけるユーザインターフェース方法であって、
ユーザの状態をセンシングするセンシング工程と、
上記センシング工程にてセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定工程と、
上記操作意図推定工程にて推定された操作意図に応じて上記処理手段を制御する制御工程と
を有することを特徴とするユーザインターフェース方法。
A user interface method in a user interface device comprising: interface means capable of being operated by a user; and processing means for performing predetermined processing in response to a user operation via the interface means,
A sensing process for sensing the user's condition;
Based on the state of the user sensed in the sensing step, an operation intention estimation step of estimating the user's operation intention in advance using an inference model;
And a control step of controlling the processing means according to the operation intention estimated in the operation intention estimation step.
JP2005130242A 2005-04-27 2005-04-27 User interface device and method Pending JP2006309448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005130242A JP2006309448A (en) 2005-04-27 2005-04-27 User interface device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005130242A JP2006309448A (en) 2005-04-27 2005-04-27 User interface device and method

Publications (1)

Publication Number Publication Date
JP2006309448A true JP2006309448A (en) 2006-11-09

Family

ID=37476270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005130242A Pending JP2006309448A (en) 2005-04-27 2005-04-27 User interface device and method

Country Status (1)

Country Link
JP (1) JP2006309448A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140268A (en) * 2006-12-04 2008-06-19 Denso Corp Operation estimation device and program
US7987147B2 (en) 2006-05-18 2011-07-26 Sony Corporation Information processing apparatus, information processing method, and program based on operator probability using sensors
JP2016507112A (en) * 2013-03-05 2016-03-07 インテル コーポレイション Complex perceptual input dialogue
JP2019536131A (en) * 2016-10-04 2019-12-12 フェイスブック,インク. Controls and interfaces for user interaction in virtual space

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203006A (en) * 1998-01-20 1999-07-30 Fujitsu Ltd User environment estimation device
JPH11288342A (en) * 1998-02-09 1999-10-19 Toshiba Corp Device and method for interfacing multimodal input/ output device
JP2000187553A (en) * 1991-06-20 2000-07-04 Fuji Xerox Co Ltd Input device and head mount display for input device
JP2005011037A (en) * 2003-06-18 2005-01-13 National Institute Of Advanced Industrial & Technology Pointing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187553A (en) * 1991-06-20 2000-07-04 Fuji Xerox Co Ltd Input device and head mount display for input device
JPH11203006A (en) * 1998-01-20 1999-07-30 Fujitsu Ltd User environment estimation device
JPH11288342A (en) * 1998-02-09 1999-10-19 Toshiba Corp Device and method for interfacing multimodal input/ output device
JP2005011037A (en) * 2003-06-18 2005-01-13 National Institute Of Advanced Industrial & Technology Pointing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7987147B2 (en) 2006-05-18 2011-07-26 Sony Corporation Information processing apparatus, information processing method, and program based on operator probability using sensors
JP2008140268A (en) * 2006-12-04 2008-06-19 Denso Corp Operation estimation device and program
JP4670803B2 (en) * 2006-12-04 2011-04-13 株式会社デンソー Operation estimation apparatus and program
JP2016507112A (en) * 2013-03-05 2016-03-07 インテル コーポレイション Complex perceptual input dialogue
JP2019536131A (en) * 2016-10-04 2019-12-12 フェイスブック,インク. Controls and interfaces for user interaction in virtual space

Similar Documents

Publication Publication Date Title
JP6002758B2 (en) Screen editing method and apparatus for portable terminal with touch screen
US9760170B2 (en) Generation of graphical feedback in a computer system
JP5944326B2 (en) Eye tracker based context action
CN117170620A (en) User interface for audio media controls
CN105599642B (en) Seat Automatic adjustment method, device and terminal
KR101984590B1 (en) Display device and controlling method thereof
CN103019604B (en) Terminal and terminal control method
CN104464250B (en) Remote control for programmable multimedia controller
KR101289318B1 (en) Input device, input method as well as a corresponding computer-readable storage medium
KR101385813B1 (en) Touch sensitive wireless navigation device for remote control
CN114020203A (en) User interface for content streaming
CN113014931A (en) User interface for viewing live video feeds and recording videos
JP6114996B2 (en) System and method for gaze tracking
WO2009084140A1 (en) Input device, input operation method, and input control program for electronic device
US9218544B2 (en) Intelligent matcher based on situational or spatial orientation
US20110134032A1 (en) Method for controlling touch control module and electronic device thereof
JPH0588842A (en) Icon displaying system
MX2013000358A (en) Systems and methods for dual use remote-control devices.
KR20130061527A (en) Method for calibrating touch screen sensitivities and display device using the same
US20160378237A1 (en) Media device with radial gesture control and methods for use therewith
JP2016139180A (en) Information processing device, information processing method, program, and display device
JP2006309448A (en) User interface device and method
JP2007104630A (en) Video surveillance system
JP2012138076A (en) User interface for exploring media content
US20090153483A1 (en) Ambidextrous operated mouse

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308