JP2010079848A - Item selection method and apparatus - Google Patents

Item selection method and apparatus Download PDF

Info

Publication number
JP2010079848A
JP2010079848A JP2008250640A JP2008250640A JP2010079848A JP 2010079848 A JP2010079848 A JP 2010079848A JP 2008250640 A JP2008250640 A JP 2008250640A JP 2008250640 A JP2008250640 A JP 2008250640A JP 2010079848 A JP2010079848 A JP 2010079848A
Authority
JP
Japan
Prior art keywords
request
item
candidate
user
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008250640A
Other languages
Japanese (ja)
Inventor
Tetsunori Kobayashi
哲則 小林
Teppei Nakano
鐵兵 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University filed Critical Waseda University
Priority to JP2008250640A priority Critical patent/JP2010079848A/en
Publication of JP2010079848A publication Critical patent/JP2010079848A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for smoothly performing an item selection operation which is an important operation that is frequently performed in an information apparatus operation in a case where a user does not operate an information component in the apparatus directly, for example, the user is away from the apparatus and a remote controller is not used. <P>SOLUTION: As a basic system for item selection, the item selection method uses a system in which an item selection is made by designating whether a user changes or determines a candidate 103 for a selection item 102 displayed by the apparatus. A continuous operation that is expressed by a cyclic chain of operation states is selected to indicate the intention of change, and an operation with fewer confusions with the above operation is selected to indicate the intention of determination. These operations are discriminated by an operation recognition means having a function to discriminate operation states. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は,入力装置、入力システム、グラフィカルユーザインタフェース及びグラフィカルユーザインタフェース操作方法に関する。 The present invention relates to an input device, an input system, a graphical user interface, and a graphical user interface operation method.

複数の項目からなる項目集合の中からある項目を選ぶ項目選択操作は,情報機器の利用において頻出する重要な操作である。パソコン操作においてメニューを手繰ってコマンドを選ぶ操作が典型的な例であるが,テレビ操作においてチャンネル選択する操作も,画像編集においてビデオクリップの中からあるひとコマを選択する操作も,オーディオのボリュームをある値に設定する操作も,広くみればこの項目集合の中から項目を選択する操作の例と見ることができる。
通常,項目選択操作は,ダイレクトポインティング型と,ここで候補変更−確定型呼ぶ方式のふたつに大別される。
ダイレクトポインティング型項目選択方式では,ユーザは,グラフィックディスプレイ等に表示された項目群の中から選択しようとする項目をマウス等のポインティングデバイスで直接触れることで選択操作が実現される。
候補変更−確定型項目選択方式では,選択の候補となる項目がハイライトされるなどして他の項目と区別して表示される,あるいは選択の候補だけが表示される枠組みの中で,ボタン操作やジョグダイヤル操作で選択の候補を変更する操作を繰り返し,選択しようとする項目が候補として選ばれた段階で確定ボタンを押すことで選択操作が実現される。
両者には,一長一短がある。一般的にいって,項目集合を一度に表示できるだけのスペースを表示装置が持ち,各項目の表示領域を瞬時に指示できる仕組みがある場合には,ダイレクトポインティング型が有利であり,そうでない場合は候補変更−確定型が有利である。
本発明は,装置から離れた場所でリモコンを使うことなく装置を操作する場合など,装置に装備されたインタフェース部品を直接操作できない環境において,項目集合から所望の項目を選択する方法およびその装置を実現するものである。
上述のような目的のためにこれまでの開発された技術としては,次のようなものがある。
An item selection operation for selecting an item from an item set consisting of a plurality of items is an important operation that frequently occurs in the use of information equipment. A typical example is to select a command by handing the menu in the PC operation, but the operation of selecting a channel in TV operation, the operation of selecting a frame from a video clip in image editing, The operation for setting to a certain value can be seen as an example of an operation for selecting an item from this item set.
In general, the item selection operation is roughly divided into a direct pointing type and a method called a candidate change-determined type here.
In the direct pointing type item selection method, a user can select an item to be selected by directly touching an item to be selected from an item group displayed on a graphic display or the like with a pointing device such as a mouse.
In the candidate change-deterministic item selection method, button selection is performed in a framework in which items that are candidates for selection are highlighted and displayed separately from other items, or only candidates for selection are displayed. The selection operation is realized by repeating the operation of changing the selection candidate by the jog dial operation and pressing the confirm button when the item to be selected is selected as a candidate.
Both have advantages and disadvantages. Generally speaking, if the display device has enough space to display the item set at a time and there is a mechanism that can instantly indicate the display area of each item, the direct pointing type is advantageous. Candidate change-deterministic is advantageous.
The present invention provides a method and apparatus for selecting a desired item from an item set in an environment in which interface parts installed in the apparatus cannot be directly operated, such as when the apparatus is operated without using a remote control at a location remote from the apparatus. It is realized.
The following technologies have been developed for the above purpose.

例えば,ソニー・コンピュータエンタテインメントから発売されたアイトーイ・プレイにはダイレクトポインティングによる項目選択方法として次のようなインタフェースが装備されている。システム表示装置上に複数の項目が表示されるとともに,カメラで取得したユーザの画像が同じ表示装置上にユーザの分身として重ね合わせて表示される。ユーザは,表示装置上に投影された自分の手が,選択したい項目にちょうど重なるように自分の体を動かす。システムは一定時間項目位置とユーザの手が重なった場合にその項目が選択されたものと判断する。このことによって,ユーザはインタフェース部品に触ることなく,項目選択をすることが可能になっている。   For example, Itoy Play released from Sony Computer Entertainment is equipped with the following interface as an item selection method by direct pointing. A plurality of items are displayed on the system display device, and an image of the user acquired by the camera is superimposed and displayed on the same display device as the user's alternation. The user moves his / her body so that his / her hand projected on the display device exactly overlaps an item to be selected. The system determines that the item is selected when the item position overlaps the user's hand for a certain period of time. This allows the user to select an item without touching the interface component.

ビクターが2007年のCEATECで発表した「拍手音&ジェスチャ認識テレビ」では,アイトーイ・プレイと同様に指先の部分を表示装置上のアイコンに重ねることでアイコンを選択し,指先を曲げることで決定する機能が実装されている。   In "Clap & Gesture Recognition TV" announced by Victor at CEATEC in 2007, the icon is selected by overlapping the fingertip part on the icon on the display device, and it is determined by bending the fingertip in the same way as Aitoi Play. The function is implemented.

以上は,いずれもダイレクトポインティング型である。候補変更−確定型は,先に述べたような有用な場面があるにもかかわらず見当たらない。   All of the above are direct pointing types. Candidate change-definitive type is not found despite the useful scenes mentioned above.

本発明が扱う課題は,ユーザが装置から離れたいてかつリモコンを使うことができない場面など,装置に装備されたインタフェース部品を直接操作することができない環境において,情報機器操作時に頻出する重要な操作である項目選択操作を円滑に行う方法を提供することにある。
アイトーイ・プレイや拍手音&ジェスチャ認識テレビは,システム内部におけるユーザの操作状態の解釈を表示装置に表示することでユーザが次にどのように動作をすれば項目選択ができるかをガイドしたものである。このとき,ユーザは,離れた画面に表示された自分の分身の手を,画面上の指定された部分に動かすことを求められることになるが,画面と離れた自由空間での手の移動によって,画面上での分身の手の位置合わせをすることは実は容易ではなく,操作に対するユーザの疲労が大きいという問題がある。
また,先に述べたように候補変更−確定型項目選択方法を,装置に装備されたインタフェース部品を直接操作できない条件で実現した例は見当たらないが,これを,アイトーイ・プレイのようにユーザが主体的に表示装置上の分身の位置合わせを行う方法で実現することは容易に考えつく。
例えば,表示装置上に変更ボタンを設け,変更ボタンに一度分身の手を合わせると一回変更要求を発行できるようにして,候補変更−確定型項目選択を実現できる。しかし,この実装では,変更要求を高速に連続して行うためには,ただでさえ疲労が大きい画面上での分身の位置合わせを,繰り返し行う必要が生じ,疲労感は非常に大きなものとなる。
繰り返し連続して変更要求動作を行う代わりに,変更ボタンに分身の手を合わせている間変更要求が繰り返し出力されるような実装も容易に考えられる。しかし,この場合は候補の変更を繰り返すスピードを制御することが難しくなり,円滑な操作感を実現することが困難になるという問題がある。
また,位置合わせに係る労力の問題を軽減するため,一定の姿勢や動作を変更要求や確定要求にあてた上で,パターン認識の技術によってこれらの姿勢・動作を認識し,これらの要求を検出することが考えられる。例えば,円動作を続ける間変更要求が行われ,手振り動作で確定要求が行われるなどが考えられる。しかしこの場合も,変更要求を連続して行うためには,同じ動作を静止動作で区切って行うか,あるいは動作を継続する時間情報を利用することが必要となり,先に挙げた表示装置上で分身の位置合わせをする方法と同様に,候補の変更を繰り返す時のスピード制御の問題を抱えることとなる。
The problems addressed by the present invention are important operations that occur frequently when operating information equipment in an environment where the interface parts installed in the device cannot be directly operated, such as when the user is away from the device and cannot use the remote control. It is to provide a method for smoothly performing an item selection operation.
Eye-toy play and applause sound & gesture recognition TV guides how the user can select items by displaying the interpretation of the user's operation status inside the system on the display device. is there. At this time, the user is required to move his / her own hand displayed on the remote screen to a designated part on the screen. However, it is actually not easy to align the hand of the other person on the screen, and there is a problem that the user's fatigue for the operation is great.
In addition, as described above, there is no example in which the candidate change-deterministic item selection method is realized under the condition that the interface parts installed in the device cannot be directly operated. It is easily conceivable to realize it by a method of performing self-alignment on the display device.
For example, a candidate change-deterministic item selection can be realized by providing a change button on the display device so that a change request can be issued once when the surrogate is put on the change button. However, in this implementation, it is necessary to repeat the position alignment on the screen where even fatigue is high, in order to perform the change request continuously at high speed, and the feeling of fatigue becomes very large. .
Instead of repeatedly performing the change request operation repeatedly, it is easy to implement such that the change request is repeatedly output while the alter button is put together. However, in this case, there is a problem that it becomes difficult to control the speed at which the candidate is repeatedly changed, and it is difficult to realize a smooth operation feeling.
In addition, in order to alleviate the labor problem related to alignment, after applying a certain posture or motion to a change request or confirmation request, these postures / motions are recognized by pattern recognition technology and these requests are detected. It is possible to do. For example, a change request may be made while continuing a circular motion, and a confirmation request may be made by a hand motion. However, even in this case, in order to perform the change request continuously, it is necessary to perform the same operation by dividing it by a stationary operation or to use time information for continuing the operation. Similar to the method of aligning the alternations, it has the problem of speed control when iteratively changes candidates.

本発明は、かかる問題を考慮した上で、ユーザが操作を行う位置や,行う動作の精度を意識することなく,円滑に項目を選択できる方法と装置を提供することを目的とする。   An object of the present invention is to provide a method and an apparatus capable of smoothly selecting an item without considering the position where a user performs an operation and the accuracy of an operation to be performed in consideration of such a problem.

本発明では,項目選択の基本方式として候補変更−確定型項目選択方式を採用した上で,ここで必要となる候補変更要求の検出を,表示画面上の分身の合せ込みや,単なる孤立パターンの認識手段ではなく,複数の動作状態の識別機能を持つ連続動作のパターン認識手段を導入することで実現する。連続動作とは,複数の動作状態の循環的な連結によってモデル化されるもので,例えば,カメラに向かって手で円を描く動作や,繰り返し手を前後あるいは左右に振る動作,首を回す動作,繰り返し声の高低を変える動作,椅子の上で重心を円状に移動する動作など,何度でも続けることができる動作をいう。
ここでいう複数の動作状態の識別機能を持つ連続動作のパターン認識とここでいう単純なパターン認識との違いは,次のように例えられる。手の位置が「上にあること」とか,「手が円を描いていること」,などを認識することが単純なパターン認識とすれば,「手が円を描く一連の動作の中で上にあること」を認識することが複数の動作状態の識別機能を持つ連続動作のパターン認識にあたる。
特定の連続動作における特定状態を検出したとき,候補変更要求を出力する構成をとることで,候補変更要求を連続して円滑に行えるとともに,この変更要求の時間当たりの回数を自由に変えることができる。例えば,円を描く動作において,手が上にある状態と下にある状態の2つの状態を候補変更要求と結びつけておくと,円を一周描いただけで,2回の変更要求を発行できるし,円を何度も描けば回した回数に応じて変更要求を発行できる。円を描くスピードを変えることで,変更要求を発行するスピードも変えることができる。
連続動作の認識手段の中に特定動作状態の識別が組み込まれることで,動作状態の識別をコンテキストを参照しながら行っていることになるから,動作状態の識別精度が向上する。例えば,「円を描く一連の動作の中で手が上にある動作状態」と似た動作状態は,他の動作の中にも数多くある。連続動作の識別と関連付けずに,この動作状態を識別しようとすると,誤識別による湧き出しが多発する。動作の識別を踏まえて,動作状態を識別することで,このような湧き出しを抑えることができる。
また,似たような動作状態でも,コンテキストに応じた区別をすることが可能になり,装置の振る舞いを高度化できる。例えば手を小さく早く回してから横位置で止めた静止動作とそれ以外の静止動作を分けて捉える事ができ,それらに対応する振る舞いを変えることができる。
上記の工夫によって,操作労力の問題と,動作の精度の問題は解決され,動作の位置の問題もある程度減じられるが,動作位置の問題の解決は十分とはいえない。この問題の解決には,単純に連続動作の認識時に用いる特徴量を,位置非依存な量に変換することがひとつの方法として考えられる。例えば,手の動きを,手の位置の時間変化としてとらえるのでなく,手の速度ベクトルの時間変化として捉えることがこれにあたる。しかしながら,速度の情報の信頼度は,位置の信頼度に比べ低く,このような処理を行うと,一般に識別率は低下する。このため,パターン認識では,位置依存情報と位置非依存の情報を適切な重みでバランスよく組み合わせて使うとともに,位置依存情報自体は適当な座標変換によって正規化し,位置依存性を減じることが一般的に試みられている。ここで,この正規化のための変換パラメタを,個々の問題においてどのように定めるかが重要な問題となる。本発明では,まず,パターン識別におけるオンライン適応の技術を適用して変換パラメタを定めることで,動作位置の問題を解決した。オンライン適応は,ユーザが行う動作によって変化する物理量の履歴あるいは,その履歴に一定演算を施して得られる値を用いて行うことができる。
In the present invention, the candidate change-determined item selection method is adopted as the basic method for item selection, and the candidate change request required here is detected by combining the contents on the display screen or simply by using an isolated pattern. This is realized by introducing continuous motion pattern recognition means having a plurality of operation state identification functions instead of recognition means. Continuous motion is modeled by a cyclic connection of multiple motion states. For example, a motion of drawing a circle by hand toward the camera, a motion of repeatedly shaking hands back and forth or left and right, and a motion of turning the neck , Actions that can be repeated any number of times, such as repeatedly changing the pitch of the voice, or moving the center of gravity in a circle on the chair.
The difference between the pattern recognition of the continuous operation having a plurality of operation state identification functions here and the simple pattern recognition here can be compared as follows. If the simple pattern recognition is to recognize that the position of the hand is "up" or "the hand is drawing a circle", then "the hand moves up in a series of actions that draw a circle." Recognizing that “is present” corresponds to pattern recognition of a continuous operation having a plurality of operation state identification functions.
By adopting a configuration that outputs candidate change requests when a specific state in a specific continuous operation is detected, the candidate change requests can be made smoothly and continuously, and the number of change requests per time can be freely changed. it can. For example, in the action of drawing a circle, if you combine the two states of the hand up and the state down with the candidate change request, you can issue two change requests by drawing a circle once, If a circle is drawn many times, a change request can be issued according to the number of rotations. By changing the speed of drawing a circle, you can also change the speed of issuing change requests.
Since the identification of the specific operation state is incorporated in the continuous operation recognition means, the operation state is identified with reference to the context, so that the identification accuracy of the operation state is improved. For example, there are many other motion states that are similar to the “motion state in which a hand is up in a series of circle drawing operations”. When trying to identify this operating state without associating it with the identification of continuous motion, there are many occurrences of misidentification. By identifying the operation state based on the identification of the operation, such a spring can be suppressed.
In addition, even in similar operating states, it becomes possible to distinguish according to the context, and the behavior of the device can be enhanced. For example, it is possible to separately grasp a stationary motion that is stopped in a horizontal position after turning a hand quickly and other stationary motions, and the behavior corresponding to them can be changed.
Although the above-mentioned contrivance solves the problem of operation labor and the problem of motion accuracy and reduces the problem of motion position to some extent, it cannot be said that the solution of the motion position problem is sufficient. One way to solve this problem is to simply convert the feature value used when recognizing continuous motion into a position-independent amount. For example, the movement of the hand is not regarded as a time change of the hand position, but is regarded as a time change of the velocity vector of the hand. However, the reliability of the speed information is lower than the reliability of the position, and when such processing is performed, the identification rate generally decreases. For this reason, in pattern recognition, position-dependent information and position-independent information are generally used in a balanced combination with appropriate weights, and the position-dependent information itself is normalized by appropriate coordinate transformation to reduce position dependency. Has been tried. Here, how to determine the conversion parameters for this normalization in each problem is an important issue. In the present invention, first, the problem of the operation position is solved by determining a conversion parameter by applying an online adaptation technique in pattern identification. Online adaptation can be performed using a history of physical quantities that change according to actions performed by the user, or values obtained by performing certain operations on the history.

ところで,人間の行う動作は,異なる動作の間でもそれを行う位置に相関関係を持つため,ある動作の動作位置が分かれば,候補変換動作等他の動作の位置もおおよそ見当をつけることができ,位置依存情報の正規化が容易になる。ここでは,装置に操作の開始要求を受け付ける機能を持たせ,この要求を行う動作として,動作の検出と動作位置の特定が簡単な動作を用いることで,開始要求の検出時に位置依存情報の正規化ができるようにする。操作の開始要求を受け付ける機能を持たせることは,本来はインタフェース全体の操作性を向上させる上から必要なことでありが,これが位置依存情報の正規化機能にも貢献することで,機能追加の価値がより高いものとなる。
上記ふたつの方法は,位置情報の正規化をユーザに意識させることなく行うものであるが,ユーザ側が意識して位置情報の正規化を要求し,必要な情報を与えることも有用である。このために,座標変換パラメタの調整をユーザ側から要求するための動作を定め,この動作の操作位置をもって全体の動作の位置情報を正規化できる枠組みを導入した。ここでも,動作の検出と動作位置の特定が簡単な動作を用いる必要がある。
By the way, human movements have a correlation with the positions of different movements, so if you know the movement position of a certain movement, you can approximate the position of other movements such as candidate conversion movements. , Position-dependent information can be normalized easily. Here, the device has a function of accepting an operation start request, and the operation that makes this request is a simple operation that can detect the operation and specify the operation position. Make it possible. Providing a function that accepts an operation start request is originally necessary to improve the operability of the entire interface, but this contributes to the normalization function of position-dependent information. The value will be higher.
The above two methods perform normalization of position information without making the user aware of it, but it is also useful for the user to request normalization of position information and give necessary information. For this purpose, we have defined an action to request adjustment of coordinate transformation parameters from the user side, and introduced a framework that can normalize the position information of the whole action with the operation position of this action. Here too, it is necessary to use an operation that is easy to detect the operation and specify the operation position.

ユーザにジョグダイヤルとその操作点の情報を示し,装置が検出したユーザの動作状態をこのジョグダイヤルを用いてフィードバックすることで,ユーザに,あたかもジョグダイヤルを操作しいるような感覚を持たせることができる。このことで,操作の楽しさが向上する。また,ユーザが動作を始める前にジョグダイヤル上にユーザの動作の初期値を描くことにより,ユーザがその状態から動作を始めるように誘導することができる。このとき動作の検出手段において,ジョグダイヤル上に与えた状態から動作を始める期待値を高めて処理を行うことにより,検出精度を高めることができる。   By showing the user the information on the jog dial and its operating point and feeding back the user's operating state detected by the apparatus using this jog dial, the user can feel as if the jog dial is being operated. This improves the enjoyment of operation. In addition, by drawing an initial value of the user's operation on the jog dial before the user starts the operation, the user can be guided to start the operation from that state. At this time, the detection accuracy can be improved by increasing the expected value for starting the operation from the state given on the jog dial in the operation detecting means.

ここで提案する連続動作による候補変更−確定型項目選択手法は,有用な方法ではあるが,精度の点ではリモコンに及ばない。このため,リモコンを併用することが望まれる。このとき,リモコンの使い勝手を,本発明で提案した連続動作による候補変更−確定型項目選択手法と異なるものにすると,連続動作の使い方に慣れないことが予想される。そこで,センサはタッチパッド等接触型のセンサを用いるものの,残りの部分はここで提案した連続動作による候補変更−確定型項目選択手法を採用したリモコンを導入する。このことによって,リモコン利用時と非使用時において一貫した操作感を与えることができる。   The proposed candidate change-determined type item selection method proposed here is a useful method, but it does not reach the remote control in terms of accuracy. For this reason, it is desirable to use a remote controller together. At this time, if the usability of the remote controller is different from the candidate change-determined item selection method based on the continuous motion proposed in the present invention, it is expected that the user will not be used to the continuous motion. Therefore, although a contact type sensor such as a touch pad is used as the sensor, a remote controller adopting the candidate change-determined type item selection method by the continuous operation proposed here is introduced. This makes it possible to provide a consistent operational feeling when using the remote control and when not using it.

本発明により,ユーザは,項目を選択する操作を,装置から離れた位置において,リモコンを使うことなく,また操作を行う位置と精度を意識することなく,円滑に行うことが可能になる。 According to the present invention, a user can smoothly perform an operation of selecting an item at a position away from the apparatus without using a remote controller and without being aware of the position and accuracy of the operation.

部分的な手段と効果の関係は以下のとおりである。   The relationship between partial means and effects is as follows.

項目選択の基本方式として候補変更−確定による方法を採用した上で,必要となる候補変更要求の検出を,複数の動作状態の識別機能を持つ連続動作のパターン認識手段を導入することで,候補変更要求を出力する頻度を自由に変えながら,円滑に候補変更することが容易に実現可能となる。また,動作状態の識別精度が向上する。さらに,似たような動作状態でも,コンテキストに応じた区別をすることが可能になり,装置の振る舞いを高度化できる。
パターン識別におけるオンライン適応の技術を適用して動作検出に必要となる変換パラメタの動的変更を行うこと,開始要求動作および動作調整要求動作の検出時における動作位置情報を有効利用することで,動作位置に対する耐性が向上する。
The candidate change-confirmation method is adopted as the basic method of item selection, and the candidate change request is detected by introducing a continuous motion pattern recognition means having a plurality of operation state identification functions. It is possible to easily change the candidate smoothly while freely changing the frequency of outputting the change request. In addition, the identification accuracy of the operating state is improved. Furthermore, even in similar operating states, it becomes possible to distinguish according to the context, and the behavior of the device can be enhanced.
Applying online adaptation technology for pattern identification to dynamically change conversion parameters required for motion detection, and effectively using motion position information when detecting start request motion and motion adjustment request motion Resistance to position is improved.

ジョグダイヤルを用いたフィードバックすることで,ユーザの操作感を向上させるとともに,ユーザの動作を誘導できた。動作を誘導することで,動作の検出精度を高めることができる。
本手法と併用するリモコンに,タッチパッド等接触型のセンサを用いて,ここで提案した連続動作による候補変更−確定型項目選択手法を導入することで,リモコン利用時と非使用時において一貫した操作感を与えることができ,動作での機器操作に早く慣れることができる。
Feedback using the jog dial improved the user's operational feeling and guided the user's movement. By guiding the motion, the motion detection accuracy can be increased.
By using a contact-type sensor such as a touchpad for the remote control used in conjunction with this method, and introducing the proposed candidate change-deterministic item selection method based on continuous motion, the remote control can be used consistently and when it is not used. You can give a feeling of operation and get used to the operation of the equipment quickly.

[共通動作の説明]
図1は,提案する連続動作による候補変更−確定型項目選択装置のブロック図100を示している。
ユーザは,装置のインタフェース部品に直接触れることなく行う動作によって,項目集合101にある項目の中から所望項目を選び,選択項目102として出力する操作を行う。
ここで項目集合とは,有限集合であっても,無限集合であってもよい。例えば,1年のどれかの月を選ぶのであれば,1月から12月までの各月が項目集合であり,2月を選んだとすればこれが選択項目となる。例えば,角度を定めるならば,0以上360未満の実数が項目集合となり,10.5度を選んだならば,これが選択項目となる。項目集合は,一連の操作の途中で変更されることがあってもよい。
装置は,選ばれる項目の候補103をデータとして持つ。候補表示手段104は,ディスプレイ等の表示装置で構成され,候補103の変更を検知すると,候補の値をディスプレイに表示してユーザに示す。
ユーザはこの候補を見た上で,動作105によって装置に状態の変更を要求する。候補表示手段104によって表示された候補が所望の候補であれば確定要求動作を行い,そうでなければ候補変更要求動作を行う。ここで,一般に,候補変更要求動作は動作状態の循環形状の遷移によってモデル化できる連続動作が選ばれ,確定要求動作は候補変更要求動作と区別が容易な動作が選ばれる。確定要求動作と候補要求動作の組み合わせの例としては,カメラと概直交する平面で該直線を描く動作と概円を描く動作の組,カメラに向かってうなずく動作と顔を回す動作の組,手を横に動かす動作と手を縦に繰り返し振る動作の組,椅子に座って前後に体重を移動する動作と回転状に体重を移動する動作の組,声で「確定」と発話する動作と,声の高さを上下に変動させる動作などが考えられる。
106は,動作のデータを装置に取り込むためのセンサであり,典型的には使われる動作がジェスチャのときはカメラであり,音のときはマイクロホンであり,体重移動のときは,圧力分布のセンサである。複数のセンサを用いて,複合的な動作を対象としてもよい。
要求識別手段107では,特徴量算出108,連続動作を含む動作の識別109,動作状態の識別110を経て得られる動作と動作状態の検出結果を用いて,要求判定手段111がユーザの要求が候補変更要求と確定要求とを検出し,この結果を制御手段112に出力する。ここで変更要求は必ずしもひととおりに決まるものではなく,例えば,右回りの手の動作を識別したときには変更要求1を出力し,左回りの手の動作を識別したときは変更要求2を出力するなどのように,複数種類の変更要求があってよい。この部分は実施例に依存するので実施例1以降に詳述する。
制御手段112は,要求識別手段の出力を受けて,次候補の決定を行う。次候補の決定は,候補集合の要素により循環リストを作っておき,変更要求1のときはこのリストを順方向にたどり,変更要求2のときは逆にたどるなどして行う。次候補は,リスト操作によらず,算術演算によって決めてもよい。例えば,角度を定める例において,変更要求1のときは候補と360の中間値を,変更要求2のときは候補と0の中間値を新たな候補とするなどの例がこれにあたる。候補が決まると,制御手段はこれを103に格納し,候補表示手段105を通じて再度ユーザに提示する。また,制御手段116は,要求識別手段107から確定要求を受け取ると,現在の候補としている項目を,選択項目102として出力する。
[Description of common operation]
FIG. 1 shows a block diagram 100 of a proposed candidate change-determined item selection device by continuous action.
The user performs an operation of selecting a desired item from the items in the item set 101 and outputting the selected item 102 by an operation performed without directly touching the interface component of the apparatus.
Here, the item set may be a finite set or an infinite set. For example, if any month of the year is selected, each month from January to December is an item set, and if February is selected, this is a selection item. For example, if the angle is determined, a real number from 0 to less than 360 becomes the item set, and if 10.5 degrees is selected, this becomes the selection item. The item set may be changed during a series of operations.
The apparatus has candidate items 103 to be selected as data. Candidate display means 104 is composed of a display device such as a display, and when a change in candidate 103 is detected, the candidate value is displayed on the display and shown to the user.
After viewing the candidate, the user requests the apparatus to change the state through operation 105. If the candidate displayed by the candidate display unit 104 is a desired candidate, a confirmation request operation is performed, and if not, a candidate change request operation is performed. Here, generally, the candidate change request operation is selected as a continuous operation that can be modeled by the transition of the cyclic shape of the operation state, and the confirmation request operation is selected as an operation that can be easily distinguished from the candidate change request operation. Examples of the combination of the requested request action and the candidate request action include a set of a motion that draws the straight line and a motion that draws an approximate circle on a plane that is substantially orthogonal to the camera, a set of motion that nods to the camera and a motion that turns the face, A group of movements of moving the hand horizontally and a movement of repeating hands vertically, a group of movements of sitting and sitting in a chair and moving weights back and forth, and a movement of moving weights in a rotating manner, a movement of speaking “confirmed” by voice, An operation that fluctuates the pitch of the voice can be considered.
Reference numeral 106 denotes a sensor for capturing motion data into the device. Typically, the motion sensor is a camera when the motion is a gesture, a microphone when the sound is used, and a pressure distribution sensor when the weight is moved. It is. Multiple operations may be targeted using a plurality of sensors.
In the request identification unit 107, the request determination unit 111 uses the motion and motion state detection results obtained through the feature amount calculation 108, the motion identification 109 including the continuous motion, and the motion state identification 110, as a candidate for the user request. A change request and a confirmation request are detected, and the result is output to the control means 112. Here, the change request is not necessarily determined in a single way. For example, a change request 1 is output when a clockwise hand movement is identified, and a change request 2 is output when a counterclockwise hand movement is identified. There may be multiple types of change requests. Since this part depends on the embodiment, it will be described in detail in Embodiment 1 and later.
The control means 112 receives the output of the request identification means and determines the next candidate. The next candidate is determined by creating a circular list based on the elements of the candidate set, following this list in the forward direction when a change request 1 is made, and tracing backward when the change request 2 is made. The next candidate may be determined by an arithmetic operation regardless of the list operation. For example, in the example of determining the angle, this is an example in which an intermediate value between the candidate and 360 is a new candidate when the change request is 1, and an intermediate value between the candidate and 0 is a new candidate when the change request is 2. When the candidate is determined, the control means stores it in 103 and presents it to the user again through the candidate display means 105. When the control unit 116 receives the confirmation request from the request identifying unit 107, the control unit 116 outputs the item set as the current candidate as the selection item 102.

次に,図2を用いて,ユーザが行う要求動作201が,候補の決定を要求するときの動作がカメラと概直交する平面で手を用いて概直線を描く動作であり,候補変更を要求するときの動作がカメラと概直交する平面で手を用いて概円を描く動作である場合を例にとって,要求識別手段200(図1要求識別手段107相当部分)の実施例を詳述する。
図中202は,ハンドジェスチャを装置に取り込むセンサであるカメラである。例えば,この出力203としては,縦400画素,横640画素の分解能で,各画素8ビット階調のデータが秒当たり30コマ出力される。
特徴量算出手段204は,センサ出力203を受け取って,画像の特徴量を算出する。例えば,画素毎に勾配法によってオプティカルフローを求め,これを一定サイズのブロック毎に平滑化した上で,平滑して得られるベクトルの中で最も大きいベクトルを(sx,sy),それを与える画素位置を(xx,xy)として求める。本実施例において識別対象とする動作において,最も早く動いているのは手であるから,ここで得られた平滑化ベクトルの最大値は,手の動作の速度ベクトルを,最大値を与える座標値は手の動作位置を与える。こうして得られたベクトルの組, X=(sx,sy,xx,xy)を特徴量として定める。またこのとき,特徴量としては,オプティカルフローを単純に主成分分析するなどして,情報圧縮することによって求めてもよい。最後に,X=(kA+(1−k)I)X+kB の補正を行って,最終的な特徴量とする。A,Bは後に述べるパラメタ調整のためのもので,初期値では A=I(単位行列),B=0としておく。kは急激な補正をさけるためのパラメタである。
認識対象となる動作は,動作モデル205として記述されている。モデルは図3に示すような状態遷移モデルで表現される。204で算出された特徴量を,一時刻毎にベクトルをひとつずつ出力しながら,状態遷移を繰り返す。モデルは,状態毎に出力できる特徴量が満たすべき条件や,遷移ごとに遷移が許される状態条件を規則で確定的に与えることもできるが,ここでは各状態が出力する特徴量と状態遷移をともに確率的に扱う隠れマルコフモデルの考え方に従って説明する。
310は,確定要求のための動作を表すためのもので,ここではカメラと概直交する平面上で,該直線を描いた動作を表現する。
320は,候補変更要求のための動作を表すためのもので,ここではカメラと概直交する平面上で,概円を描いた動作を表現する。動作表現が,320のような環状になる動作を候補変更要求のために用いることが,本発明の特徴のひとつである。
330は,ガーベージモデルと呼ばれる確率モデルで,例えば,手を動作開始点まで持っていくための動作など,操作中に現れる上記2動作以外の動作を表現する。
図中311,321,331の二重の円で表したノードは,開始ノードであり,モデル上で各動作の始端を表す。
図中312,322,332の太線の小さな円で表したノードは,終端ノードであり,このノードから,他の動作モデルの始端に繋がることができることを表現する。
図中313,323,333などの円は,動作状態に対応したものである。その状態に遷移するとき各特徴量をどのような確率で出力するかを表す出力確率分布を持つ。
例えば,確定要求に対応する概直線動作を表す310における状態1は概直線動作における始端動作を表すものとして設定され,また状態2同直線動作の終端動作を表すものとして設定される。直線動作が左から右への横動作であるならば,状態1は,相対的にsxが大きく,syが0に近く,xxが小さな特徴ベクトルの出力確率が高く,状態2は相対的にsxが大きく,syが0に近く,xxが大きな特徴ベクトルの出力確率が高くしておく。
また,候補変更要求に対応する概円動作を表す320における状態1は右回りの円動作における手が最も高い位置ある動作状態を表すものとして設定され,当該位置で手を右に動かしたときの特徴量に対応する,sx成分とxy成分が相対的に大きい特徴量の出力確率が高くなる。状態2,状態3と順に右回りに手が下りてきて,状態5ではが最も下にあるときの動作状態を表すものとして設定され,当該位置で手を左に動かしたときの特徴量が出力されやすくなる出力確率分布をもたせておく。
Next, referring to FIG. 2, the requested operation 201 performed by the user is an operation of drawing an approximate straight line using a hand on a plane approximately orthogonal to the camera when requesting candidate determination, and requesting candidate change An example of the request identifying unit 200 (corresponding to the request identifying unit 107 in FIG. 1) will be described in detail by taking as an example the case where the operation at this time is an operation of drawing an approximate circle using a hand on a plane substantially orthogonal to the camera.
In the figure, reference numeral 202 denotes a camera which is a sensor for taking a hand gesture into the apparatus. For example, as the output 203, 30 frames per second of 8-bit gradation data for each pixel is output with a resolution of 400 pixels vertically and 640 pixels horizontally.
The feature amount calculation means 204 receives the sensor output 203 and calculates the feature amount of the image. For example, an optical flow is obtained for each pixel by a gradient method, and this is smoothed for each block of a certain size, and the largest vector among the vectors obtained by smoothing is (sx, sy), and the pixel giving it The position is obtained as (xx, xy). In the operation to be identified in this embodiment, the fastest moving hand is the hand, so the maximum value of the smoothed vector obtained here is the velocity vector of the hand motion, the coordinate value that gives the maximum value. Gives the hand movement position. A set of vectors thus obtained, X = (sx, sy, xx, xy) is determined as a feature quantity. At this time, the feature amount may be obtained by compressing information by simply performing principal component analysis of the optical flow. Finally, X = (kA + (1-k) I) X + kB is corrected to obtain the final feature amount. A and B are for parameter adjustment to be described later. By default, A = I (unit matrix) and B = 0. k is a parameter for avoiding abrupt correction.
The operation to be recognized is described as an operation model 205. The model is expressed by a state transition model as shown in FIG. The state transition is repeated while outputting the feature quantity calculated in 204 one vector at a time. The model can also give a rule deterministically the conditions that must be satisfied by the features that can be output for each state, and the state conditions that allow transitions for each transition. Both are explained according to the hidden Markov model.
Reference numeral 310 denotes an operation for a confirmation request. Here, an operation in which the straight line is drawn on a plane substantially orthogonal to the camera is expressed.
320 represents an operation for requesting a candidate change, and here represents an operation in which an approximate circle is drawn on a plane approximately orthogonal to the camera. One of the features of the present invention is to use an operation in which the operation expression is circular like 320 for requesting a candidate change.
Reference numeral 330 denotes a probability model called a garbage model, which expresses movements other than the two movements that appear during the operation, such as an action for bringing the hand to the movement start point.
A node represented by double circles 311, 321, and 331 in the figure is a start node, and represents the start of each operation on the model.
In the figure, the nodes 312, 322, and 332 represented by small thick circles are terminal nodes, and express that this node can be connected to the start end of another behavior model.
Circles such as 313, 323, and 333 in the figure correspond to operating states. It has an output probability distribution indicating the probability of outputting each feature amount when transitioning to that state.
For example, the state 1 in 310 representing the substantially linear motion corresponding to the confirmation request is set as representing the starting end motion in the substantially linear motion, and is set as representing the end motion of the state 2 colinear motion. If the linear motion is a lateral motion from left to right, state 1 has a relatively large sx, sy is close to 0, and xx has a small feature vector output probability, and state 2 has a relatively high sx. The output probability of a feature vector having a large sy, close to 0, and a large xx is set high.
Also, state 1 in 320 representing the approximate circle motion corresponding to the candidate change request is set to represent the motion state in which the hand is at the highest position in the clockwise circle motion, and when the hand is moved to the right at the position. The output probability of the feature quantity corresponding to the feature quantity having a relatively large sx component and xy component is increased. State 2 and state 3 are set to represent the operation state when the hand descends clockwise in order and state 5 is at the lowest position, and the feature value is output when the hand is moved to the left at that position. An output probability distribution that is likely to be generated is provided.

上記2つの動作以外の動作を表す330の状態1には,310,320にくらべ,偏りのない出力確率分布を持たせる。   Compared to 310 and 320, the state 1 of 330 representing the operation other than the above two operations has an output probability distribution with no bias.

このような確率分布は,学習データを与えることで,自動的に学習することができる。
図中314,324,334は,状態遷移の可能性を表すアークであり,アークの始端からアークの終端への遷移しやすさを表す状態遷移確率を持つ。
図2尤度計算手段205は,特徴量算出手段が出力する特徴量を受けて,図3の各モデルの各状態が,現在の動作状態としてどの程度ふさわしいかを表す確率を算出する。
例えば,時刻tに状態Siにいる確率を,α(i,t)と表すことにする。状態Siから状態Sjへの遷移確率をb(i,j)とし,状態jで特徴量Xを出力する確率をa(j,X)とすれば,時刻t+1において,状態iにいる確率α(j,t+1)は,
α(j,t+1)=Σ_i α(i,t)×b(i,j)×α(j,t+1)
と書ける。この方法を用いて,すべての動作のすべての動作状態の尤度を計算する。
各モデルの尤度が与えられると,動作識別手段207は,現在どの動作を行っている可能性が最も高いかを調べ,動作状態識別手段208はその動作においてどの動作状態にある可能性が最も高いかを調べ,これを要求判定部209に送る。
要求判定手段209は,状態列と出力するべき要求の関係規則を持っており,207,208の出力を受けて,この規則に従って状態列を検査し,定義された状態列が見つかったとき,対応する要求を出力する。
例えば,動作識別手段が確定要求動作の可能性が高いとしたうえで,動作状態識別手段が状態列1−2を出力したならば,確定要求を出力する。
例えば,動作識別手段が候補変更要求動作の可能性が高いとしたうえで,動作状態識別手段が状態列1−2,あるいは,5−6を出力したならば,度候補変更要求を出力する。
以上のように,本実施例では,確定要求の識別と候補変更要求の識別を一体化して確率モデルで行う方法について説明したが,確定要求はSVM(サポートベクタマシン)で行い,候補変更要求は確率モデルで行うなど,異なる方法で尤度計算を行ってもよい。また,候補変更要求動作の識別はSVMで行って,動作状態の識別は確率モデルで行うなど,異なる方法を組み合わせてもよい。
調整パラメタ算出手段211は,特徴量算出手段が与える特徴量の履歴212と,動作状態識別手段が与える動作状態の履歴213から,最近の動作状態とそれを表現するのに用いた特徴量の対応関係を得ることができる。これを用いて,尤度が高くなるように,特徴量算出手段204の振る舞い,あるいは動作モデル206を変更する。特徴量算出手段の振る舞いを変えるときには,特徴量の履歴にある特徴Xに線形の演算 X’=AX+B を施したとき,X’が対応する動作状態の平均値ベクトルに近づくような変換のパラメタA,Bを求め,これを特徴量算出手段に与える。また,動作モデル206を変更するときには,動作モデルの平均値パラメタを M’=AM+B で変換したとき,212の履歴にある特徴量の出力確率が高くなるようA,Bを求め,これを用いて動作モデルのパラメタを変更する。このような最適化は簡単な線形演算によって求めることができる。
項目選択操作の開始を要求する動作,および調整を要求する動作として,手振り動作を採用したときの例を説明する。手振りは動作位置の検出が簡単で,他動作と混同が少ないという優れた性質がある。
特徴量算出手段2 221では,各画素の輝度値をFFTし,ブロック平滑化した値を出力する。動作位置検出手段222は,予め設定した周波数帯域の強度があらかじめ設定した値より強い画素領域を手振り領域候補として求め,さらにこの領域の重心を手振り位置候補として求める。要求判定手段2 223は,動作位置検出手段222が求めた手振り領域候補が予め設定した広さより広いとき,手振り動作があったものと判断する。このとき装置の操作前であれば,開始要求があったものとして開始要求を出力する。また,このとき同時に動作位置検出手段222が求めた手振り位置候補を調整パラメタ算出手段211に送る。装置の操作後であれば,調整要求と判断して,動作位置検出手段222が求めた手振り位置候補を調整パラメタ算出手段211に送る。
調整パラメタ算出手段は,受け取った動作位置をYとするとき,候補変更動作が開始する可能性が高いと判断し,候補変更動作の初期状態の分布の平均値 Zに対し,Y= Z+B が成立するよう,Bを求め,この−Bを特徴量算出手段に与える。あるいは,動作のモデルを変更するさいには,動作モデルにおいては,すべての平均値M を M’= M+B により変更する。
このように,開始要求における処理と,調整要求における処理とを共有してもよい。また,ここでは,確定要求・候補変更要求のための要求識別手段200の特徴量算手段や尤度計算手段と,開始要求のための求識別手段220の特徴量算手段や尤度計算手段とを分けたが,これらは共有して用いてもよい。
図3 320の円を描く動作の確率モデルに対して,図4 400のようなジョグダイヤルの内部イメージを用意する。401は回転体,402,403等は回転角を表すマークを置く位置の候補となるもので,それぞれ番号は動作状態と対応している。ディスプレイには,410に示したように,回転体を表す411のような円に,400におけるマーク候補位置をひとつ選び,411の対応した場所412にマークを置いた形を作る。
ここで図2 207の動作識別モデルが,円動作を検出している間は例えば421のようにマークの色を変えるなど,円動作を検出していないときと区別した表現をする。手の形をしたアイコンをマークにかぶせるなどしてもよい。
原則的には,図3 320の確率モデルにおいて,最も尤度が高くなる動作状態に対応したマーク位置が選らばれ,マークが置かれる。尤度が高い動作状態が移動すると,それにつれてマークも移動するため,ジョグダイヤルを操作しているような感覚になれる。
ユーザが円の描画動作をする前からマーク位置を提示しておくと,はジョグダイヤルの操作点がそこにあるような印象をユーザに与えるため,ユーザは円の描画動作をマークの位置に対応した位置から始める傾向にある。例えば,マークが初期状態で上にあれば,ユーザは上から円を書き始める傾向にあるし,マークが初期状態で下にあれば,ユーザは下から円を書き始める傾向にある。そこで,図3 320における初期状態からマーク位置に対応した状態に対する状態遷移の確率にバイアスをかけることにすると,モデルのエントロピーを下げることができ,識別の精度を上げることができる。ジョグダイヤルによる内部状態のフィードバックはユーザの動作を誘導する意味でも有効である。
リモコンにタッチパッドを置き,パッド上に描く直線動作で確定要求を,同じくパッド上で描く円動作で候補変更要求ができるようにする。リモコンと,空間でのジェスチャで一貫した操作を行えるため,操作手順に早くなれることができる。
Such a probability distribution can be automatically learned by providing learning data.
In the figure, reference numerals 314, 324, and 334 denote arcs that indicate the possibility of state transition, and have a state transition probability that represents the ease of transition from the arc start point to the arc end point.
The likelihood calculation unit 205 in FIG. 2 receives the feature amount output from the feature amount calculation unit, and calculates the probability that each state of each model in FIG. 3 is appropriate as the current operation state.
For example, the probability of being in the state Si at time t is expressed as α (i, t). If the transition probability from the state Si to the state Sj is b (i, j) and the probability of outputting the feature quantity X in the state j is a (j, X), the probability α (( j, t + 1) is
α (j, t + 1) = Σ_i α (i, t) × b (i, j) × α (j, t + 1)
Can be written. Using this method, the likelihood of all motion states of all motions is calculated.
Given the likelihood of each model, the action identification means 207 examines which action is most likely to be currently performed, and the action state identification means 208 is most likely to be in which action state. Whether it is high or not is sent to the request determination unit 209.
The request determination unit 209 has a relational rule between the status string and the request to be output. Upon receiving the outputs of 207 and 208, the request judgment unit 209 checks the status string according to this rule, and when a defined status string is found, Output a request to
For example, if the operation identification means has a high possibility of the confirmation request operation, and the operation state identification means outputs the status column 1-2, a confirmation request is output.
For example, if the operation identification means has a high possibility of the candidate change request operation and the operation state identification means outputs the status column 1-2 or 5-6, the candidate change request is output.
As described above, in this embodiment, the method of integrating the identification of the confirmation request and the identification of the candidate change request by the probability model has been described. However, the confirmation request is performed by the SVM (support vector machine), and the candidate change request is Likelihood calculations may be performed in different ways, such as with a probabilistic model. Further, different methods may be combined, such as identifying candidate change request operations using SVM and identifying operation states using a probability model.
The adjustment parameter calculation unit 211 corresponds to the correspondence between the recent operation state and the feature amount used to express it from the feature amount history 212 provided by the feature amount calculation unit and the operation state history 213 provided by the operation state identification unit. You can get a relationship. Using this, the behavior of the feature quantity calculation means 204 or the behavior model 206 is changed so that the likelihood becomes high. When changing the behavior of the feature quantity calculating means, when a linear operation X ′ = AX + B is applied to the feature X in the feature quantity history, the transformation parameter A is such that X ′ approaches the average value vector of the corresponding operation state. , B are obtained and given to the feature quantity calculating means. When the behavior model 206 is changed, when the average value parameter of the behavior model is converted by M ′ = AM + B, A and B are obtained so that the output probability of the feature quantity in the history of 212 is increased, and this is used. Change the parameters of the behavior model. Such optimization can be obtained by a simple linear operation.
An example in which a hand movement is adopted as an operation for requesting the start of an item selection operation and an operation for requesting adjustment will be described. Hand gestures have excellent properties such as easy detection of the movement position and little confusion with other movements.
The feature amount calculation unit 2 221 performs FFT on the luminance value of each pixel and outputs a block smoothed value. The motion position detection means 222 obtains a pixel area whose intensity in a preset frequency band is stronger than a preset value as a hand shake area candidate, and further obtains the center of gravity of this area as a hand shake position candidate. The request determination unit 2 223 determines that there has been a hand movement when the hand movement region candidate obtained by the operation position detection unit 222 is wider than a preset area. At this time, if it is before the operation of the device, a start request is output as if there was a start request. At the same time, the hand movement position candidate obtained by the movement position detection unit 222 is sent to the adjustment parameter calculation unit 211. If it is after the operation of the apparatus, it is determined as an adjustment request, and the hand movement position candidate obtained by the movement position detection means 222 is sent to the adjustment parameter calculation means 211.
The adjustment parameter calculation means determines that the candidate change operation is likely to start when the received operation position is Y, and Y = Z + B is established for the average value Z of the distribution of the initial state of the candidate change operation. Thus, B is obtained, and this -B is given to the feature quantity calculating means. Alternatively, when the behavior model is changed, all average values M are changed by M ′ = M + B in the behavior model.
In this way, the process in the start request and the process in the adjustment request may be shared. Further, here, the feature quantity calculating means and likelihood calculating means of the request identifying means 200 for the confirmation request / candidate change request, and the feature quantity calculating means and likelihood calculating means of the request identifying means 220 for the start request, However, these may be shared.
The internal image of the jog dial as shown in FIG. 4400 is prepared for the probability model of the operation of drawing a circle in FIG. Reference numeral 401 denotes a rotating body, and 402, 403, and the like are candidates for positions at which marks representing rotation angles are placed, and each number corresponds to an operation state. On the display, as shown at 410, a mark candidate position at 400 is selected in a circle like 411 representing a rotating body, and a mark is placed at a corresponding location 412 in 411.
Here, while the motion identification model in FIG. 2207 is detecting the circular motion, the expression is distinguished from the case where the circular motion is not detected, for example, by changing the color of the mark as in 421. You may put a hand-shaped icon on the mark.
In principle, in the probability model of FIG. 3320, the mark position corresponding to the operation state with the highest likelihood is selected and the mark is placed. When the operating state with a high likelihood moves, the mark moves accordingly, so that the user feels like operating the jog dial.
If the user presents the mark position before drawing the circle, he gives the user the impression that the jog dial's operating point is there. Tend to start from position. For example, if the mark is in the initial state, the user tends to start writing a circle from above, and if the mark is in the initial state, the user tends to start writing a circle from the bottom. Therefore, by biasing the state transition probability for the state corresponding to the mark position from the initial state in FIG. 3320, the entropy of the model can be lowered and the identification accuracy can be increased. The feedback of the internal state by the jog dial is also effective in guiding the user's operation.
Place the touchpad on the remote control so that a confirmation request can be made by a linear motion drawn on the pad, and a candidate change request can be made by a circular motion drawn on the pad. Because you can perform consistent operations with remote controls and gestures in the space, you can speed up the operation procedure.

次に,カメラに向かって首を縦に振る動作で確定要求を表現し,顔の向きを回す動作で候補変更要求を表現するときの実施例を述べる。
図中202は,顔画像を取り込むセンサであるカメラである。
特徴量算出手段204は,センサ出力203を受け取って,顔画像の特徴量としてAAM(Active Apearannce Model)の形状パラメタを算出する。
認識対象となる動作は実施例1と同じように,図3に示すような状態遷移モデルで表現される。以下,尤度計算,要求判定ともに,実施例と同じ方法で行うことができる。
Next, an embodiment will be described in which the confirmation request is expressed by an action of swinging the head vertically toward the camera, and the candidate change request is expressed by an action of turning the face.
In the figure, reference numeral 202 denotes a camera which is a sensor for capturing a face image.
The feature amount calculation means 204 receives the sensor output 203 and calculates a shape parameter of AAM (Active Appearance Model) as the feature amount of the face image.
Similar to the first embodiment, the operation to be recognized is represented by a state transition model as shown in FIG. Hereinafter, both likelihood calculation and request determination can be performed in the same manner as in the embodiment.

次に,カメラに向かって概直交する平面上で,大きく手を横に振る動作で確定要求を表現し,手を細かく縦に振る動作で候補変更要求を表現するときの実施例を述べる。
センサ202は,カメラである。
特徴量算出手段実施例204は,実施例1に記載したオプティカルフロー由来の特徴量とする。
確定要求動作に対応する動作モデル,ガーベージモデルは実施例1と同じである。
変更要求動作は,図5に示す状態遷移モデルで表現される。
500は,候補変更要求のための動作を表すためのもので,カメラに向かって概直交する平面上で,手を細かく縦に振る動作を表現する。
500における状態1は,手を縦に振る動作における手が最も高い位置ある動作状態を表すものとして設定され,当該位置付近で手を動かしたときの特徴量に対応する,xy成分が相対的に大きく,sx,syともに0に近い特徴量の出力確率が高くなる。状態2は手を上から下に動かしているときの動作に対応するもので,xyは0に近く,syが負の値となる特徴量の出力確率が高い。状態3は手が下の位置にある動作状態で,4は下から上に上がっていく動作状態をしめす。
以下,尤度の計算,動作識別,動作状態の識別方法は実施例1と同じである。
候補変更要求出力は,候補変更要求動作が識別結果として得られている状態で,状態2−3の遷移が検出されたとき,および状態4−1の遷移が検出されたときに行われる。
Next, a description will be given of an embodiment in which a confirmation request is expressed by an action of largely shaking a hand on a plane substantially orthogonal to the camera, and a candidate change request is expressed by an action of finely shaking the hand vertically.
The sensor 202 is a camera.
The feature amount calculating means embodiment 204 is a feature amount derived from the optical flow described in the first embodiment.
The operation model and the garbage model corresponding to the confirmation request operation are the same as those in the first embodiment.
The change request operation is expressed by a state transition model shown in FIG.
Reference numeral 500 denotes an operation for requesting a candidate change, and expresses an operation of waving a hand vertically and vertically on a plane approximately orthogonal to the camera.
State 1 in 500 is set to represent an operation state where the hand is at the highest position in the operation of shaking the hand vertically, and the xy component corresponding to the feature amount when the hand is moved near the position is relatively The output probability of a feature quantity that is large and close to 0 for both sx and sy increases. The state 2 corresponds to an action when the hand is moved from the top to the bottom, and xy is close to 0, and the output probability of the feature quantity having a negative value for sy is high. State 3 is an operation state in which the hand is in a lower position, and 4 indicates an operation state in which the hand is raised from the bottom to the top.
The likelihood calculation, operation identification, and operation state identification method are the same as those in the first embodiment.
The candidate change request output is performed when a transition of state 2-3 is detected and a transition of state 4-1 is detected in a state where the candidate change request operation is obtained as an identification result.

次に,カメラに向かって概直交する平面上で,大きくゆっくり手を回す動作のときは円の半周毎に候補変更を行い,小さく早く円を描く動作のときは早送りをし,小さく早く回した後静止動作をしたときは,他の動作をするまで早送りを続ける機能を持たせるときの実施例を述べる。
センサとしてはカメラを用い,特徴量算出手段実施例は,実施例1に記載したオプティカルフロー由来の特徴量とする。
確定要求動作に対応する動作モデル,ガーベージモデルは実施例1と同じである。
認識対象となる変更要求動作は,図6に示す状態遷移モデルで表現される。このように,変更要求動作を複数のモデルで表してよい。
610は,カメラに向かって概直交する平面上で,小さい円を早く描く動作を表現する。状態11,12,13,14の順に,それぞれ円を描く動作で手が上,右,下,左にある状態を示すものとする。状態15は,静止動作に対応する状態とする。このように変更要求動作を表すモデルも,環を構成しない状態を持ってよい。状態11から14までの各状態における出力確率設定においては,静止時の特徴量の出力は下げておくものとする。すなわち,状態15を除いて,小さい円を描く時には描画動作を止めることはできない。この構造によって,小さく円を何度も描く動作と,円を小さく描いてから右側で静止する動作を表現できることになる。610が表現する動作を,候補変更要求動作1とする。
620は,カメラに向かって概直交する平面上で,大きい円をゆっくり描く動作を表現する。ここで各状態における出力確率設定においては,静止時の特徴量の出力も与えるものとする。すなわち,大きな円を描く時には途中で描画動作をとめることができる。620が表現する動作を候補変更要求動作2とする。
小さい円と大きな円の違いは,出力確率の違いとして表れる。610のほうが,620に比べ,相対的に速度成分の大きな特徴ベクトルで高い確率を与え,また,状態毎に位置成分の違いによる出力確率の違いが少ないモデルとなる。
以下,尤度の計算,動作識別,動作状態の識別方法は実施例1と同じである。
要求判定手段は,例えば,候補変更要求動作1が識別結果として得られている状態で,状態12−13の遷移が検出されたとき候補変更要求1を出力し,同じく候補変更要求動作1が識別結果として得られている状態で,状態15−15の遷移が一定個数連続して検出されたときに候補変更要求2を出力する。また,候補変更要求動作2が識別結果として得られている状態で,状態22−23の遷移が検出されたとき,および状態24−21の遷移が検出されたときに,候補変更要求3が出力する。
制御手段は,候補変更要求3を受けると,循環リストをひとつずつ手繰って次候補定め,候補変更要求1を受けると循環リストをひとつ飛ばしで手繰って次候補を定め,候補変更要求2を受けると循環リストをふたつ飛ばしで手繰って次候補を定めるなどして,大小の円動作と静止動作を組み合わせて早送りを含む候補変更要求を実現する。
Next, on a plane that is roughly perpendicular to the camera, when moving the hand slowly and slowly, change the candidate every half of the circle, and when moving the circle quickly and quickly, fast forward and rotate small and fast An embodiment will be described in which a function is provided for continuing fast-forwarding until another operation is performed when a post-stationary operation is performed.
A camera is used as the sensor, and the feature amount calculation means embodiment is the feature amount derived from the optical flow described in the first embodiment.
The operation model and the garbage model corresponding to the confirmation request operation are the same as those in the first embodiment.
The change request operation to be recognized is expressed by a state transition model shown in FIG. In this way, the change request operation may be represented by a plurality of models.
Reference numeral 610 represents an operation of drawing a small circle quickly on a plane substantially orthogonal to the camera. It is assumed that the hands are on the top, right, bottom, and left in the order of states 11, 12, 13, and 14, respectively, by drawing a circle. State 15 is a state corresponding to a stationary operation. Thus, the model representing the change request operation may also have a state in which no ring is configured. In the output probability setting in each state from state 11 to state 14, it is assumed that the output of the feature quantity at rest is lowered. That is, except for the state 15, when drawing a small circle, the drawing operation cannot be stopped. With this structure, it is possible to represent the action of drawing a small circle many times and the action of drawing a small circle and then resting on the right side. The operation represented by 610 is set as a candidate change request operation 1.
Reference numeral 620 represents an operation of slowly drawing a large circle on a plane substantially orthogonal to the camera. Here, in setting the output probability in each state, the output of the feature quantity at rest is also given. That is, when drawing a large circle, the drawing operation can be stopped halfway. The operation represented by 620 is set as a candidate change request operation 2.
The difference between a small circle and a large circle appears as a difference in output probability. Compared to 620, 610 gives a higher probability with a feature vector having a relatively large velocity component, and becomes a model with less difference in output probability due to a difference in position component for each state.
The likelihood calculation, operation identification, and operation state identification method are the same as those in the first embodiment.
For example, when the candidate change request operation 1 is obtained as an identification result and the transition of the state 12-13 is detected, the request determination unit outputs the candidate change request 1, and the candidate change request operation 1 is also identified. In a state obtained as a result, candidate change request 2 is output when a predetermined number of transitions of states 15-15 are detected continuously. Further, candidate change request 3 is output when transition of state 22-23 is detected and transition of state 24-21 is detected in a state where candidate change request operation 2 is obtained as an identification result. To do.
When receiving the candidate change request 3, the control means determines the next candidate by stepping through the circulation list one by one, and when receiving the candidate change request 1, determines the next candidate by skipping the circulation list one by one. Upon receipt, a candidate change request including fast-forwarding is realized by combining large and small circular motions and stationary motions, such as by skipping two circular lists and determining the next candidate.

次に,カメラに向かって概直交する平面上で,細かく早く手を振る動作で,操作の開始要求を行い,開始要求動作位置から右側で手を振ると振った数に応じて項目を順方向にリストを送って候補を変更し,手を開始要求動作位置の右側で止めると,止めている間順方向の候補の早送りを続け,さらに右に手を置いて止めると,止めている間さらに早い順方向の候補の早送りを続け,開始要求動作位置から左側で手を振ると振った数に応じて項目を逆方向にリストを送って候補を変更し,手を開始要求動作位置の左側で止めると止めている間候補の逆方向の早送りを続け,さらに左に手を置いて止めると,止めている間さらに早い逆方向の候補の早送りを続け,細かく手を振ると候補を決定する場合の実施例を述べる。
センサとしてはカメラを用い,特徴量算出手段および特徴量算出手段2実施例は,それぞれ実施例1に記載したオプティカルフロー由来の特徴量,FFT由来のとする。確定要求動作には,FFT由来の特徴量を用いる。このように,変更要求動作と確定動作の特徴量を変えてもよい。
認識対象となる変更要求動作は,図7に示す状態遷移モデルで表現される。
710は開始要求動作の右側で手が動いているときの動作を表現するモデルである。状態11,12,13,14は,手を開始要求動作の右側で手を振っている動作を表すためのもので,11は手振り動作において手が左側にある状態,12は手を左から右へ動かす動作,13は手が右側にある状態,14は手を右から左へ戻す動作を表す。状態15は,14で手が右に来たところで止まった状態,16は15で手を止めた状態からさらに手を右に動かす動作,17は16に対応する動作で右に手を持ってきたところで手を止めている状態,18は17で手を止めた状態から左に戻す動作を表す。
720は開始要求動作の左側で手が動いているときの動作を表現するモデルである。状態21,22,23,24は,手を開始要求動作の左側で手を振っている動作を表すためのもので,21は手振り動作において手が右側にある状態,22は手を右から左へ動かす動作,23は手が左側にある状態,24は手を左から右へ戻す動作を表す。状態25は,24で手が左に来たところで止まった状態,26は25で手を止めた状態からさらに手を左に動かす動作,27は26に対応する動作で左に手を持ってきたところで手を止めている状態,28は27で手を止めた状態から右に戻す動作を表す。
大まかにいって,出力確率が高くなる特徴量の位置パラメタxxの値が,27>25=23>21=11>13=15>17の順に,左から右に位置する値となるようにする。また,状態15,17,25,27では速度パラメタsxが0となる特徴量の出力確率が高くするとともに,自己ループの状態遷移確率も高く設定する。状態11,13,21,23においては,出力確率が高くなる特徴量のsxの値が0近傍となるようにする。13,23については,自己ループの遷移確率を低くする。状態12,16,24,28では,sxの値を右方向への動きを表す値にし,状態14,18,22,26ではsxの値を左方向への動きを表す値にする。
尤度の計算,動作識別,動作状態の識別方法は実施例1と同じである。
開始要求と確定要求の判定処理は,実施例1に記載した要求判定手段2と同じとする。
要求判定手段は,例えば,候補変更要求動作が識別結果として得られている状態で,状態12−13の遷移が検出されたとき候補変更要求1を出力し,状態15−15の遷移が一定個数連続して検出されたときに候補変更要求2を出力し,状態17−17の遷移が一定個数連続して検出されたときに候補変更要求3を出力する。また,状態22−23の遷移が検出されたとき候補変更要求4を出力し,状態25−25の遷移が一定個数連続して検出されたときに候補変更要求5を出力し,状態27−27の遷移が一定個数連続して検出されたときに候補変更要求6を出力する。
制御手段は,候補変更要求1を受けると,循環リストを順方向にひとつずつ手繰って次候補定め,候補変更要求2を受けると循環リストを順方向にひとつ飛ばしで手繰って次候補を定め,候補変更要求3を受けると循環リストを順方向にふたつ飛ばしで手繰って次候補を定め,候補変更要求4を受けると,循環リストを逆方向にひとつずつ手繰って次候補定め,候補変更要求5を受けると循環リストを逆方向にひとつ飛ばしで手繰って次候補を定め,候補変更要求6を受けると循環リストを逆方向にふたつ飛ばしで手繰って次候補を定めるなどして,手振り動作と静止動作を組み合わせて早送りを含む候補変更要求を実現する。
Next, make a request to start the operation by waving your hand finely and quickly on a plane that is approximately orthogonal to the camera. If the hand is stopped at the right side of the start request action position, the forward candidate is forward-forwarded while it is stopped. If you continue to fast forward candidates in the fast forward direction and wave your hand on the left side from the start request action position, the list will be sent in the reverse direction according to the number of shakes and the candidate will be changed. If you stop and continue fast-forwarding the candidate while you stop, and if you put your hand on the left and stop further, you continue to fast-forward the candidate in the reverse direction while stopping and decide the candidate by shaking your hand finely Examples will be described.
A sensor is used as the sensor, and the feature amount calculation means and the feature amount calculation means 2 embodiment are derived from the optical flow-derived feature amount described in the first embodiment and from the FFT, respectively. The feature quantity derived from the FFT is used for the confirmation request operation. In this way, the feature quantities of the change request operation and the confirmation operation may be changed.
The change request operation to be recognized is expressed by a state transition model shown in FIG.
A model 710 expresses an operation when the hand is moving on the right side of the start request operation. States 11, 12, 13, and 14 are for representing an operation of waving at the right side of the start request operation, 11 is a state in which the hand is on the left side in the hand movement operation, and 12 is a hand from left to right , 13 indicates a state where the hand is on the right side, and 14 indicates an operation of returning the hand from right to left. State 15 is the state where the hand stops when it comes to the right at 14, 16 is the action of moving the hand further from the state where the hand is stopped at 15, and 17 is the action corresponding to 16, bringing the hand to the right By the way, the state in which the hand is stopped, 18 indicates the operation of returning the hand from the state in which the hand is stopped at 17 to the left.
A model 720 expresses an operation when the hand is moving on the left side of the start request operation. States 21, 22, 23, and 24 are for representing a hand-waving operation on the left side of the start requesting operation, 21 is a state in which the hand is on the right side in the hand-shaking operation, and 22 is a hand from the right to the left. , 23 indicates a state where the hand is on the left side, and 24 indicates an operation of returning the hand from left to right. State 25 is a state where the hand stops when it comes to the left at 24, 26 is an operation of moving the hand further from the state where the hand is stopped at 25, and 27 is an operation corresponding to 26 and brought the hand to the left By the way, the state in which the hand is stopped, 28 indicates the operation of returning the hand from the state in which the hand is stopped at 27 to the right.
Roughly speaking, the value of the position parameter xx of the feature quantity that increases the output probability is set to a value located from the left to the right in the order of 27> 25 = 23> 21 = 11> 13 = 15> 17. . In the states 15, 17, 25, and 27, the output probability of the feature quantity with the speed parameter sx being 0 is increased, and the state transition probability of the self-loop is also set to be high. In states 11, 13, 21, and 23, the value of the feature quantity sx that increases the output probability is set to be close to zero. For 13 and 23, the transition probability of the self-loop is lowered. In states 12, 16, 24, and 28, the value of sx is set to a value that represents the rightward movement, and in states 14, 18, 22, and 26, the value of sx is set to a value that represents the leftward movement.
Likelihood calculation, operation identification, and operation state identification method are the same as those in the first embodiment.
The determination process of the start request and the confirmation request is the same as that of the request determination unit 2 described in the first embodiment.
For example, the request determination means outputs candidate change request 1 when a transition of state 12-13 is detected in a state where the candidate change request operation is obtained as an identification result, and a certain number of transitions of state 15-15 occur. Candidate change request 2 is output when detected continuously, and candidate change request 3 is output when a certain number of transitions in states 17-17 are detected continuously. Also, a candidate change request 4 is output when a transition in the state 22-23 is detected, a candidate change request 5 is output when a certain number of transitions in the state 25-25 are continuously detected, and a state 27-27 The candidate change request 6 is output when a certain number of transitions are detected continuously.
When receiving the candidate change request 1, the control means determines the next candidate by stepping through the circulation list one by one in the forward direction, and upon receiving candidate change request 2, determines the next candidate by skipping the circulation list one by one in the forward direction. When the candidate change request 3 is received, the next list is determined by skipping the circulation list in the forward direction, and when the candidate change request 4 is received, the circulation list is processed one by one in the reverse direction to determine the next candidate. When the request 5 is received, the next candidate is determined by skipping the circulation list in the reverse direction to determine the next candidate. When the candidate change request 6 is received, the next candidate is determined by skipping the circulation list in the opposite direction. Candidate change request including fast-forwarding is realized by combining motion and stationary motion.

連続動作による候補変更−確定型項目選択装置ブロック図Candidate change by continuous operation-block diagram of deterministic item selection device 要求識別手段ブロック図Request identification block diagram 動作モデル例1Operation model example 1 内部状態表示用ジョグダイヤルJog dial for internal status display 動作モデル例2Operation model example 2 動作モデル例3Operation model example 3 動作モデル例4Operation model example 4

符号の説明Explanation of symbols

100・・・連続動作による候補変更−確定型項目選択装置
101・・・候補集合
102・・・選択項目
103・・・候補
104・・・候補表示手段
105・・・入力動作
106・・・センサ
107・・・要求識別手段
108・・・特徴量算出手段
109・・・連続動作を含む動作の識別手段
110・・・動作状態識別手段
111・・・要求判定手段
112・・・制御手段
200・・・要求識別手段
201・・・ユーザの入力動作
202・・・センサ
203・・・センサ出力
204・・・特徴量算出手段
205・・・尤度計算手段
206・・・動作モデル
207・・・動作識別手段
208・・・動作状態識別手段
209・・・要求判定手段
211・・・調整パラメタ算出手段
212・・・特徴量の履歴
213・・・動作状態の履歴
220・・・要求識別手段2
221・・・特徴量算出手段2
222・・・動作位置検出手段
223・・・要求判定手段2
310・・・確定要求動作の確率モデル
311・・・確定要求動作モデルの開始ノード
312・・・確定要求動作モデルの終了ノード
313・・・確定要求動作モデルの動作状態ノード
314・・・確定要求動作モデルの遷移アーク
320・・・候補変更要求動作の確率モデル
321・・・候補変更要求動作モデルの開始ノード
322・・・候補変更要求動作モデルの終了ノード
323・・・候補変更要求動作モデルの動作状態ノード
324・・・候補変更要求動作モデルの遷移アーク
330・・・ガーベージの確率モデル
331・・・ガーベージモデルの開始ノード
332・・・ガーベージモデルの終了ノード
333・・・ガーベージモデルの動作状態ノード
334・・・ガーベージモデルの遷移アーク
400・・・ジョグダイヤルの内部イメージ
401・・・回転体
402・・・マーク位置候補1
403・・・マーク位置候補2
410・・・候補変更要求が識別されていないときのジョグダイヤルの表示例
411・・・回転体
412・・・マーク
420・・・候補変更要求が識別されたときのジョグダイヤルの表示例1
421・・・マーク
430・・・候補変更要求が識別されたときのジョグダイヤルの表示例2
431・・・マーク
500・・・候補変更要求動作の確率モデル例1
600・・・候補変更要求動作の確率モデル例2
710・・・候補変更要求動作の確率モデル例3
720・・・候補変更要求動作の確率モデル例4。
100 ... Candidate change by continuous operation-deterministic item selection device 101 ... Candidate set 102 ... Selection item 103 ... Candidate 104 ... Candidate display means 105 ... Input operation 106 ... Sensor 107 ... request identifying means 108 ... feature quantity calculating means 109 ... action identifying means 110 including continuous motions ... operation state identifying means 111 ... request judging means 112 ... control means 200 ..Request identifying means 201... User input operation 202... Sensor 203... Sensor output 204... Feature amount calculating means 205 .. Likelihood calculating means 206. Operation identification means 208 ... Operation state identification means 209 ... Request determination means 211 ... Adjustment parameter calculation means 212 ... Feature amount history 213 ... Operation state history 220 ... Request identification means 2
221... Feature amount calculation means 2
222... Operation position detecting means 223... Request determining means 2
310 ... Probability request action probability model 311 ... Confirmation request action model start node 312 ... Confirmation request action model end node 313 ... Confirmation request action model operation state node 314 ... Confirmation request Action model transition arc 320 ... Candidate change request action probability model 321 ... Candidate change request action model start node 322 ... Candidate change request action model end node 323 ... Candidate change request action model Operation state node 324 ... Transition arc 330 of candidate change request operation model ... Garbage probability model 331 ... Garbage model start node 332 ... Garbage model end node 333 ... Garbage model operation state Node 334 ... Garbage model transition arc 400 ... Inside the jog dial Image 401 ... rotary member 402 ... mark position candidate 1
403 ... Mark position candidate 2
410: Display example of jog dial when candidate change request is not identified 411 ... Rotating body 412 ... Mark 420 ... Display example 1 of jog dial when candidate change request is identified
421 ... Mark 430 ... Display example 2 of jog dial when candidate change request is identified
431 ... Mark 500 ... Probability model example 1 of candidate change request operation
600 ... Probabilistic model example 2 of candidate change request operation
710 ... Probability model example 3 of candidate change request action
720 ... Probability model example 4 of candidate change request operation.

Claims (11)

選択項目の候補をユーザに表示する候補表示手段と,ユーザの要求の入力手段と,ユーザの要求が候補変更か確定かを識別する要求識別手段と,制御手段を持ち,該制御手段は該要求識別手段から候補変更要求を受けると項目を選んでこれを新たな候補とするとともに候補表示手段に表示し,該要求識別手段から確定要求を受けると現在の候補を選択項目として確定することによって,項目集合に属する任意の項目を選択する候補変更−確定型項目選択方法であって,該入力手段はユーザがインタフェース部品に直接触れることなく行う動作によって変化する物理量を計測するセンサを持ち,該要求識別手段は前記センサの出力を時間間隔毎に分析して特徴量の時系列を算出する特徴量算出手段と,該特徴量を用いて連続動作を識別する手段と,該連続動作を構成する動作状態を識別する手段を持つことを特徴とする項目選択方法。 Candidate display means for displaying selection item candidates to the user, user request input means, request identification means for identifying whether the user request is a candidate change or confirmation, and control means, the control means includes the request When a candidate change request is received from the identification means, an item is selected and displayed as a new candidate and displayed on the candidate display means. When a confirmation request is received from the request identification means, the current candidate is confirmed as a selection item. A candidate change-deterministic item selection method for selecting an arbitrary item belonging to an item set, wherein the input means has a sensor for measuring a physical quantity that is changed by an operation performed by a user without directly touching an interface component, and the request means An identification unit analyzes the output of the sensor at each time interval to calculate a feature amount time series, and a unit for identifying a continuous operation using the feature amount , Item selection method characterized by having means for identifying the operating state constituting the continuous operation. 前記の請求項1に記載の項目選択方法であって,前記物特徴量算出手段が算出した特徴量の時系列の履歴の格納手段と,動作状態識別手段が求める動作状態の履歴の格納手段と,該特徴量の履歴と動作状態の履歴とを用いて,特徴量の算出手段あるいはおよび動作モデルの振る舞いを調整するための調整パラメタを出力する調整パラメタ算出手段を持つことを特徴とする,項目選択方法。 The item selection method according to claim 1, wherein a time-series history storage unit of the feature amount calculated by the object feature amount calculation unit, and an operation state history storage unit obtained by the operation state identification unit; And an adjustment parameter calculation means for outputting an adjustment parameter for adjusting the behavior of the behavior model by using the feature quantity history and the operation state history. Selection method. 前記の請求項2に記載の項目選択方法であって,前記センサの出力を受けて,ユーザの要求動作が開始要求動作であったかどうかを識別する要求識別手段2を持ち,該要求識別手段2は前記センサの出力を時間間隔毎に分析して特徴量の時系列を算出する特徴量算出手段2と,該特徴量から要求動作を行った動作位置を計算する動作位置算出手段を持ち, 該要求識別手段が出力する開始要求は,項目選択のための操作を開始するトリガとして用いられるとともに,該動作位置は前記の調整パラメタ算出手段において前記調整パラメタの算出に用いられることを特徴とする項目選択方法。 3. The item selection method according to claim 2, further comprising request identifying means 2 for receiving whether or not the user's requested action is a start request action in response to the output of the sensor, A feature amount calculating means 2 for analyzing the output of the sensor for each time interval to calculate a time series of the feature amount; and an operation position calculating means for calculating an operation position where the requested operation is performed from the feature amount. The start request output by the identification means is used as a trigger for starting an operation for item selection, and the operation position is used for calculation of the adjustment parameter by the adjustment parameter calculation means. Method. 前記の請求項2に記載の項目選択方法であって,前記センサの出力を受けて,ユーザの要求動作が調整要求動作であったかどうかを識別す要求識別手段3を持ち,該要求識別手段は前記センサの出力を時間間隔毎に分析して特徴量の時系列を算出する特徴量算出手段3と,該特徴量から要求動作を行った動作位置を計算する動作位置算出手段2を持ち,該動作位置は前記の調整パラメタ算出手段において前記調整パラメタの算出に用いられることを特徴とする項目選択方法。 3. The item selection method according to claim 2, further comprising request identifying means 3 for receiving whether the requested operation of the user is an adjustment requesting operation upon receiving the output of the sensor, wherein the request identifying means includes the request identifying means. It has a feature quantity calculation means 3 for calculating the time series of the feature quantity by analyzing the sensor output at each time interval, and an action position calculation means 2 for calculating the action position where the requested action is performed from the feature quantity. The item selection method, wherein the position is used for calculating the adjustment parameter in the adjustment parameter calculation means. 内部状態表示手段を持ち,回転体を表現する形状と回転の角度を表現するマークを持つ,いわゆるジョグダイヤルを模した形状を内部状態表示手段を用いて表示し,ユーザの動作状態に関する推定値を該ジョグダイヤルを模した形状を用いて表示することを特徴とする請求項1に記載の項目選択方法。   The internal state display means has a shape that represents a rotating body and a mark that represents the angle of rotation. The shape imitating a so-called jog dial is displayed using the internal state display means, and an estimated value related to the user's operating state is displayed. The item selection method according to claim 1, wherein the item is displayed using a shape imitating a jog dial. 選択項目の候補をユーザに表示する候補表示手段と,ユーザの要求の入力手段と,ユーザの要求が候補変更か確定かを識別する要求識別手段と,制御手段を持ち,該制御手段は該要求識別手段から候補変更要求を受けると項目を選んでこれを新たな候補とするとともに候補表示手段に表示し,該要求識別手段から確定要求を受けると現在の候補を選択項目として確定することによって,項目集合に属する任意の項目を選択する候補変更−確定型項目選択装置であって,該入力手段はユーザがインタフェース部品に直接触れることなく行う動作によって変化する物理量を計測するセンサを持ち,該要求識別手段は前記センサの出力を時間間隔毎に分析して特徴量の時系列を算出する特徴量算出手段と,該特徴量を用いて連続動作を識別する手段と,該連続動作を構成する動作状態を識別する手段を持つことを特徴とする項目選択装置。 Candidate display means for displaying selection item candidates to the user, user request input means, request identification means for identifying whether the user request is a candidate change or confirmation, and control means, the control means includes the request When a candidate change request is received from the identification means, an item is selected and displayed as a new candidate and displayed on the candidate display means. When a confirmation request is received from the request identification means, the current candidate is confirmed as a selection item. A candidate change-deterministic type item selection device for selecting an arbitrary item belonging to an item set, wherein the input means has a sensor for measuring a physical quantity that is changed by an operation performed by a user without directly touching an interface component, and the request means An identification unit analyzes the output of the sensor at each time interval to calculate a feature amount time series, and a unit for identifying a continuous operation using the feature amount , Item selection device characterized by having means for identifying the operating state constituting the continuous operation. 前記の請求項6に記載の項目選択装置であって,前記物特徴量算出手段が算出した特徴量の時系列の履歴の格納手段と,動作状態識別手段が求める動作状態の履歴の格納手段と,該特徴量の履歴と動作状態の履歴とを用いて,特徴量の算出手段あるいはおよび動作モデルの振る舞いを調整するための調整パラメタを出力する調整パラメタ算出手段を持つことを特徴とする,項目選択装置。 7. The item selection device according to claim 6, wherein a storage unit for time series history of feature quantities calculated by the object feature quantity calculation unit, and a storage unit for operation state history obtained by the operation state identification unit; And an adjustment parameter calculation means for outputting an adjustment parameter for adjusting the behavior of the behavior model by using the feature quantity history and the operation state history. Selection device. 前記の請求項7に記載の項目選択装置であって,前記センサの出力を受けてユーザの要求動作が開始要求動作であったかどうかを識別する要求識別手段2を持ち,該要求識別手段2は前記センサの出力を時間間隔毎に分析して特徴量の時系列を算出する特徴量算出手段2と,該特徴量から要求動作を行った動作位置を計算する動作位置算出手段を持ち, 該要求識別手段が出力する開始要求は,項目選択のための操作を開始するトリガとして用いられるとともに,該動作位置は前記の調整パラメタ算出手段において前記調整パラメタの算出に用いられることを特徴とする項目選択装置。 8. The item selection device according to claim 7, further comprising request identifying means 2 for identifying whether or not a user's requested action is a start request action in response to an output of the sensor, wherein the request identifying means 2 A feature quantity calculating means 2 for analyzing the sensor output at each time interval to calculate a time series of the feature quantity, and an action position calculating means for calculating the action position where the requested action has been performed from the feature quantity. The start request output by the means is used as a trigger for starting an operation for selecting an item, and the operation position is used for calculation of the adjustment parameter by the adjustment parameter calculation means. . 前記の請求項7に記載の項目選択装置であって,前記センサの出力を受けて,ユーザの要求動作が調整要求動作であったかどうかを識別す要求識別手段3を持ち,該要求識別手段は前記センサの出力を時間間隔毎に分析して特徴量の時系列を算出する特徴量算出手段3と,該特徴量から要求動作を行った動作位置を計算する動作位置算出手段2を持ち,該動作位置は前記の調整パラメタ算出手段において前記調整パラメタの算出に用いられることを特徴とする項目選択装置。 8. The item selection device according to claim 7, further comprising request identifying means 3 for receiving whether the user's requested operation is an adjustment request operation in response to an output of the sensor, wherein the request identifying means It has a feature quantity calculation means 3 for calculating the time series of the feature quantity by analyzing the sensor output at each time interval, and an action position calculation means 2 for calculating the action position where the requested action is performed from the feature quantity. The position is used for calculation of the adjustment parameter in the adjustment parameter calculation means. 内部状態表示手段を持ち,回転体を表現する形状と回転の角度を表現するマークを持ついわゆるジョグダイヤルを模した形状を,内部状態表示手段を用いて表示し,ユーザの動作状態に関する推定値を該ジョグダイヤルを模した形状を用いて表示することを特徴とする請求項6に記載の項目選択装置。   A shape imitating a so-called jog dial having an internal state display means and a shape representing a rotating body and a mark representing the rotation angle is displayed using the internal state display means, and an estimated value related to the user's operating state is displayed. The item selection device according to claim 6, wherein the item selection device displays using a shape imitating a jog dial. 実インタフェース部品としてのジョグダイヤル,あるいは,タッチパッド等を用いて構成した仮想インタフェース部品としてのジョグダイヤルのいずれかを装備したリモコン装置を持つことに特徴を持つ,請求項10に記載の項目選択装置。 The item selection device according to claim 10, further comprising a remote control device equipped with either a jog dial as an actual interface component or a jog dial as a virtual interface component configured using a touch pad or the like.
JP2008250640A 2008-09-29 2008-09-29 Item selection method and apparatus Pending JP2010079848A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008250640A JP2010079848A (en) 2008-09-29 2008-09-29 Item selection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008250640A JP2010079848A (en) 2008-09-29 2008-09-29 Item selection method and apparatus

Publications (1)

Publication Number Publication Date
JP2010079848A true JP2010079848A (en) 2010-04-08

Family

ID=42210175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008250640A Pending JP2010079848A (en) 2008-09-29 2008-09-29 Item selection method and apparatus

Country Status (1)

Country Link
JP (1) JP2010079848A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015064660A (en) * 2013-09-24 2015-04-09 株式会社三菱東京Ufj銀行 Information processor and program
WO2016009644A1 (en) * 2014-07-15 2016-01-21 旭化成株式会社 Input device, biosensor, program, computer-readable medium, and mode setting method
KR20160033194A (en) * 2013-07-19 2016-03-25 마이크로칩 테크놀로지 인코포레이티드 Method for hidden-markov-model based gesture recognition
JP2017157245A (en) * 2017-06-16 2017-09-07 株式会社三菱東京Ufj銀行 Information processing unit and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160033194A (en) * 2013-07-19 2016-03-25 마이크로칩 테크놀로지 인코포레이티드 Method for hidden-markov-model based gesture recognition
JP2016527628A (en) * 2013-07-19 2016-09-08 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated Hidden Markov Model Based Method for Gesture Recognition
US10365722B2 (en) 2013-07-19 2019-07-30 Microchip Technology Germany Gmbh Human interface device and method
KR102364328B1 (en) * 2013-07-19 2022-02-17 마이크로칩 테크놀로지 인코포레이티드 Method for hidden-markov-model based gesture recognition
JP2015064660A (en) * 2013-09-24 2015-04-09 株式会社三菱東京Ufj銀行 Information processor and program
WO2016009644A1 (en) * 2014-07-15 2016-01-21 旭化成株式会社 Input device, biosensor, program, computer-readable medium, and mode setting method
JPWO2016009644A1 (en) * 2014-07-15 2017-04-27 旭化成株式会社 Input device, biosensor, program, computer-readable medium, and mode setting method
US10698484B2 (en) 2014-07-15 2020-06-30 Asahi Kasei Kabushiki Kaisha Input device, biosensor, program, computer-readable medium, and mode setting method
JP2017157245A (en) * 2017-06-16 2017-09-07 株式会社三菱東京Ufj銀行 Information processing unit and program

Similar Documents

Publication Publication Date Title
US10511778B2 (en) Method and apparatus for push interaction
US9791918B2 (en) Breath-sensitive digital interface
JP5802667B2 (en) Gesture input device and gesture input method
US10120454B2 (en) Gesture recognition control device
US20180292907A1 (en) Gesture control system and method for smart home
JP2019087279A (en) Systems and methods of direct pointing detection for interaction with digital device
US20120208639A1 (en) Remote control with motion sensitive devices
US20130293460A1 (en) Computer vision based control of an icon on a display
US9544556B2 (en) Projection control apparatus and projection control method
US20200142495A1 (en) Gesture recognition control device
US20230251745A1 (en) Systems and methods for providing on-screen virtual keyboards
US11886643B2 (en) Information processing apparatus and information processing method
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
JP2010079848A (en) Item selection method and apparatus
CN105488832B (en) Optical digital ruler
TWI394063B (en) System of inputting instruction by image identification and method of the same
KR101337429B1 (en) Input apparatus
US20190235710A1 (en) Page Turning Method and System for Digital Devices
US20240185516A1 (en) A Method for Integrated Gaze Interaction with a Virtual Environment, a Data Processing System, and Computer Program
WO2023181549A1 (en) Control device, control method, and program
Zhao A novel bare-handed manipulation technique for distant objects in virtual reality
Cheng Direct interaction with large displays through monocular computer vision
CA3212746A1 (en) A method for integrated gaze interaction with a virtual environment, a data processing system, and computer program
JP2014021893A (en) Information processing device, operation signal generation method, and program
KR20240036582A (en) Method and device for managing interactions with a user interface with a physical object