JP2008015887A - User interface device and user interface method - Google Patents
User interface device and user interface method Download PDFInfo
- Publication number
- JP2008015887A JP2008015887A JP2006187994A JP2006187994A JP2008015887A JP 2008015887 A JP2008015887 A JP 2008015887A JP 2006187994 A JP2006187994 A JP 2006187994A JP 2006187994 A JP2006187994 A JP 2006187994A JP 2008015887 A JP2008015887 A JP 2008015887A
- Authority
- JP
- Japan
- Prior art keywords
- input
- user interface
- state transition
- user
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、機器類におけるメニュー選択やコマンド実行を簡単に行えるようにするために、手と足の両方を用い、動的に変化する項目を操作して入力可能にするユーザインタフェース装置およびユーザインタフェース方法に関する。 The present invention relates to a user interface device and a user interface that use both hands and feet to enable operation and input of dynamically changing items so that menu selection and command execution in devices can be easily performed. Regarding the method.
ゲーム機器やバーチャルリアリティ技術を応用したシステムを中心として、利用者の身体的なジェスチャを用いて情報を操作するようなユーザインタフェースの開発が盛んに行われている。 The development of user interfaces that manipulate information using physical gestures of users has been actively conducted, centering on game machines and systems that apply virtual reality technology.
例えば、特許文献1や特許文献2では、足のステップでゲーム操作する発明が開示されている。また、特許文献3や特許文献4では、体重移動の方向および大きさを検出する仮想現実内移動のための入力インタフェース装置の発明が開示されている。
しかし、これらの先行技術では、足スイッチと視覚的な操作対象が一意に決まっており、状態遷移などの動的なものを操作するようにはできていない。また、手足同時に操作する仕組みは提供されていない。 However, in these prior arts, the foot switch and the visual operation target are uniquely determined, and dynamic operations such as state transition cannot be operated. In addition, there is no mechanism to operate limbs at the same time.
したがって、これらの先行技術では、単なる入力スイッチとして足による入力を使うことはできるが、複数の項目がツリー状になっているような複雑なメニュー選択はできなかった。 Therefore, in these prior arts, input by foot can be used as a mere input switch, but complicated menu selection in which a plurality of items are in a tree shape cannot be performed.
さらに、利用者は手や足を同時的に用いることができず、また、手と足で同じ情報を操作するようなユーザインタフェースが提供されていないため、効率的に項目の選択や入力が行えなかった。 In addition, users cannot use their hands and feet simultaneously, and there is no user interface for operating the same information with their hands and feet, so items can be selected and input efficiently. There wasn't.
本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、機器類におけるメニュー選択やコマンド実行を簡単に行えるようにするために、手と足の両方を用いて動的に変化する項目を操作して入力可能にするユーザインタフェース装置およびユーザインタフェース方法を提供することにある。 The present invention has been proposed in view of the above-mentioned conventional problems, and the object of the present invention is to use both hands and feet to easily perform menu selection and command execution in devices. It is an object of the present invention to provide a user interface device and a user interface method that enable input by operating items that change dynamically.
上記の課題を解決するため、本発明にあっては、請求項1に記載されるように、利用者の立ち位置を検出する第一の入力手段と、利用者の手や指による操作を検出する第二の入力手段と、上記第一の入力手段および第二の入力手段の検出した位置や入力状態を判定する入力判定手段と、時間的な待受け処理を実行するタイマ手段と、上記第一の入力手段の入力可能な各位置の配置を記憶するレイアウトテーブル、状態遷移のデータを記憶する状態遷移テーブル、および、遷移した状態でのコマンドを記憶する機能テーブルを保持する記憶手段と、上記入力判定手段の処理に基づき上記記憶手段からデータを読みだして状態遷移を更新する状態遷移更新手段と、この状態遷移更新手段の更新結果を表示装置に表示する表示手段と、上記入力判定手段の処理において上記状態遷移テーブルおよび機能テーブルのデータが所定の条件を満たしたときに上記機能テーブルのコマンドを実行する出力手段とを備えるユーザインタフェース装置を要旨としている。
In order to solve the above problems, in the present invention, as described in
また、請求項2に記載されるように、請求項1に記載のユーザインタフェース装置において、上記第一の入力手段は、時間間隔を測定する計時手段を有し、所定の時間以内に規定値以上の値を上回る回数によってクリックやダブルクリックといった入力状態を検知するようにすることができる。
In addition, as described in
また、請求項3に記載されるように、請求項1に記載のユーザインタフェース装置において、上記第一の入力手段は、利用者の位置と体重移動を測定するマトリクス状の体重計や圧力センサから構成されるものとすることができる。
In addition, as described in
また、請求項4に記載されるように、請求項1に記載のユーザインタフェース装置において、上記表示手段は、上記第一の入力手段もしくは第二の入力手段による操作に応じて、選択対象が上記表示装置の中央に表示するように表示物を移動するようにすることができる。 According to a fourth aspect of the present invention, in the user interface device according to the first aspect, the display unit is configured such that the selection target is the first input unit or the second input unit according to an operation by the first input unit or the second input unit. The display object can be moved so as to be displayed in the center of the display device.
また、請求項5に記載されるように、請求項1に記載のユーザインタフェース装置において、上記表示手段は、上記状態遷移テーブルの機能間の関連があるものを関連ないものに比較して大きくしたり色を変えたりといった強調表示を行うようにすることができる。 Further, according to a fifth aspect of the present invention, in the user interface device according to the first aspect, the display means enlarges the relationship between the functions of the state transition table compared to the unrelated one. And highlighting such as changing colors.
また、請求項6〜10に記載されるように、ユーザインタフェース方法として構成することができる。
Moreover, as described in
本発明のユーザインタフェース装置およびユーザインタフェース方法にあっては、利用者は動的に変化する表示装置上のオブジェクトについて、その一つのオブジェクトについて手と足の双方を用いて操作できるため、機器類におけるメニュー選択やコマンド実行が簡単に行えるようになる。この場合、手を必ずしも用いる必要もないため、例えば手に荷物を抱えているときでも足によって機器操作を行うことができる。また、本発明により、手や指によって実現するクリック操作やダブルクリック操作に相当する操作を足による入力時にも実現することができる。 In the user interface device and the user interface method of the present invention, a user can operate an object on a display device that changes dynamically by using both hands and feet for the object. Menu selection and command execution can be performed easily. In this case, since it is not always necessary to use the hand, for example, the device can be operated with the foot even when the baggage is held in the hand. In addition, according to the present invention, an operation corresponding to a click operation or a double click operation realized by a hand or a finger can be realized at the time of input by a foot.
以下、本発明の好適な実施形態につき説明する。 Hereinafter, preferred embodiments of the present invention will be described.
図1は本発明のユーザインタフェース装置を複写機に適用した一実施形態の外観例を示す図である。 FIG. 1 is a diagram showing an example of the appearance of an embodiment in which the user interface device of the present invention is applied to a copying machine.
図1において、ユーザインタフェース装置は、利用者Uの足もとに配置した体重計や圧力センサなどから構成される足入力装置2と、タッチパネルディスプレイなどから構成される表示装置3および手入力装置4とから成る。例えば、表示装置3と手入力装置4は、複写機等の機器1のオペレーションパネルなどである。また、足入力装置2は、利用者Uが足によって移動しやすいように、センサをマトリクス状に配置する。例えば、横3列、縦2列のマトリクスとして構成することができる。
In FIG. 1, the user interface device includes a
図2は本発明のユーザインタフェース装置を他の機器に適用した外観例を示す図であり、(a)は機器1としてレジ(金銭登録機)に適用したものであり、(b)は機器1として広告ディスプレイに適用したものである。その他の機器にも適用できることは明らかであろう。
FIG. 2 is a diagram showing an example of an external appearance in which the user interface device of the present invention is applied to another device. (A) is applied to a cash register (cash register) as the
図3は足入力装置2、表示装置3および手入力装置4の例を示す図である。
FIG. 3 is a diagram illustrating an example of the
図3において、表示装置3上には、「状態遷移図」に見立てたようなオブジェクトA〜Fを表示してあり、利用者Uは手や足によってこのオブジェクト間の移行を操作することにより、それらオブジェクトに関連付けられたメニューを選択したり、コマンドを実行したりする。
In FIG. 3, on the
利用者Uが現在選択しているオブジェクトは例えば背景色を変えたり、外枠の表示状態を変えたりすることで、どこに利用者Uがいるかが分かるようになっている。 For example, the object currently selected by the user U can be identified by changing the background color or changing the display state of the outer frame.
表示装置3上のオブジェクトA〜Fは、ちょうど足入力装置2のセンサW0〜W5のマトリクス配列に対応するような形で存在する。例えば、現在利用者Uは表示装置3のオブジェクトBを選択していて、足入力装置2のセンサW1上にいるとすると、利用者Uが「a」の方向、つまり、センサW0に移動すると、表示装置3上では、オブジェクトBからオブジェクトAに選択状態が移動する。このとき、オブジェクトAがちょうど表示装置3の中央に表示されるようにする。
The objects A to F on the
利用者Uは手入力装置4を用いて同様の操作を行うことができる。すなわち、オブジェクトBの位置にいるときに、手でオブジェクトAを押下することにより、オブジェクトBからオブジェクトAに選択状態が移動する。
The user U can perform the same operation using the
すなわち、利用者Uは手と足を同時的に用いて動的に変化するような複雑なメニューやコマンド体系を実行することができる。このとき、必ずしも手を用いる必要はないため、例えば雑誌などを複写機のコピー面などに押さえつけている状態や、手に荷物を抱えている場合などでも、足によって機器1を操作するといったことができる。
That is, the user U can execute complicated menus and command systems that change dynamically using hands and feet simultaneously. At this time, since it is not always necessary to use the hand, for example, the
もちろん、従来より障害者支援用のフットスイッチのように単に足の入力を一般のキー入力に対応させるような入力装置や、ペンタッチなどの入力に対して状態遷移を行わせる視覚的インタフェースの存在は知られているが、手足の同時操作が可能であり、なおかつ手と足の双方で同じ操作インタフェースを操作でき、さらに手と足それぞれ別々に操作することもできるようなユーザインタフェースはこれまでなかった。 Of course, there is an existing input device that makes foot input correspond to general key input just like a foot switch for assisting people with disabilities, and a visual interface that makes state transitions for input such as pen touch. Although it is known, there has been no user interface that can operate the limbs at the same time, can operate the same operation interface with both hands and feet, and can also operate each hand and feet separately. .
図4は足入力装置2を構成するセンサWの動作例を示す図である。
FIG. 4 is a diagram illustrating an operation example of the sensor W constituting the
図4において、利用者Uがマトリクス状に配置した足入力装置2の一つのセンサW上に足を載せると、体重計あるいは圧力センサであるセンサWが利用者Uの体重がかかったことを検出する。
In FIG. 4, when the user U puts his / her foot on one sensor W of the
図5は荷重変化によりクリックを検出する様子を示す図である。 FIG. 5 is a diagram illustrating a state in which a click is detected by a load change.
図5において、足入力装置2では時系列上でのかかった荷重の変化を測定する。測定値が規定の値Pを越えたときに、パソコンでいういわゆるマウスクリックのような入力が行われたと判定する。
In FIG. 5, the
図6は荷重変化によりダブルクリックを検出する様子を示す図である。 FIG. 6 is a diagram showing a state in which a double click is detected by a load change.
図6において、足入力装置2では時系列上でのかかった荷重の変化を測定するが、特に計時機能(手段)を有することで、時間tinterval以内に2度、規定の値Pを越えた場合には、ダブルクリック操作が行われたと判定する。検出する回数は1度や2度とは限らず、さらに多くの回数を検出するようにしてもよい。
In FIG. 6, the
図7に示すように、足入力装置2は、入力面全体をひとつの入力装置としてみなして、傾斜センサにより入力面の傾きを検知し、その傾きの値によって、現在の利用者の状態を決定する方式によっても実現することができる。
As shown in FIG. 7, the
図8は足入力装置2のセンサWのマトリクス構成の例を示す図である。
FIG. 8 is a diagram illustrating an example of a matrix configuration of the sensors W of the
図8(a)はセンサWを3×2のマトリクス状に構成した場合を示し、(b)は6×4のマトリクス状に構成した場合を示している。マトリクスの数はこれらに限定されず、更に増やすこともできるし、減らすこともできる。また、縦横の比率を変えることもできる。 FIG. 8A shows a case where the sensors W are configured in a 3 × 2 matrix, and FIG. 8B shows a case where the sensors W are configured in a 6 × 4 matrix. The number of matrices is not limited to these, and can be further increased or decreased. Also, the aspect ratio can be changed.
図9は足入力装置2の他の認識方法の例を示す図である。
FIG. 9 is a diagram illustrating an example of another recognition method of the
図9(a)は機器1に設けた発光・受光装置5によりLED光を投光してその反射光を認識し、利用者Uの立ち位置を検出する方式である。また、(b)は機器1に設けた複数台のカメラ6により左右奥行き方向の利用者Uの立ち位置を画像から認識する方式である。(c)は機器1に設けた複数の超音波送受信装置7により超音波を送受信してそれらの間の時間的な差から利用者Uまでの距離を計測することで利用者Uの立ち位置を検出する方式である。その他に様々の方式を利用することができる。
FIG. 9A shows a system in which LED light is projected by the light emitting / receiving
図10は図1に示した体重計や圧力センサによる技術と図9に示した技術とを組み合わせたものである。すなわち、利用者Uが機器1に近づくのを発光・受光装置5、カメラ6あるいは超音波送受信装置7により認識し、機器1の表示部をスタートアップしたり、あるいは利用者Uが足入力装置2に乗っていない状態を認識したりすることができる。
FIG. 10 is a combination of the technique using the weight scale and pressure sensor shown in FIG. 1 and the technique shown in FIG. That is, the light emitting / receiving
図11は足入力装置2の付加機能の例を示す図であり、利用者Uが足入力装置2のどの位置にいるのかを識別しやすいように工夫したものである。図11(a)は足入力装置2のセンサWに選択時に光や音の変化を伴うようなアクチュエータを備えた例であり、(b)は選択されたセンサWに状態を表示するディスプレイを設けた例である。このようにすることにより、利用者Uが足入力装置2の所定のセンサWに載った場合に、きちんと認識されているかどうかを判断しやすくすることができる。
FIG. 11 is a diagram illustrating an example of an additional function of the
図12は本発明のユーザインタフェース装置の機能ブロックの例を示す図である。 FIG. 12 is a diagram showing an example of functional blocks of the user interface device of the present invention.
図12において、ユーザインタフェース装置は、体重計や圧力センサなどで構成される足による入力を検出する第一入力部11(図1の足入力装置2に相当)と、タッチパネルなどで構成される手や指による入力を検出する第二入力部12(図1の手入力装置4に相当)と、これらの入力を判定する入力判定部13と、時間的な待受け処理を実行するタイマ部14とを備えている。
In FIG. 12, the user interface device includes a first input unit 11 (corresponding to the
また、第一入力部11の入力可能な各位置の配置を記憶するレイアウトテーブルT1、状態遷移のオブジェクトの名称と関連ツリーを記憶する状態遷移テーブルT2、遷移した状態でのコマンドを記憶する機能テーブルT3を保持する記憶部15と、入力判定部13の処理に基づき記憶部15からデータを読みだして状態遷移を更新する状態遷移更新部16と、状態遷移更新部16の更新結果を表示装置3に表示する表示部17と、入力判定部13の処理において状態遷移テーブルT2と機能テーブルT3のデータが所定の条件を満たしたときに機能テーブルT3のコマンドを機器1に対して実行する出力部18とを備えている。
In addition, a layout table T1 that stores the arrangement of each position that can be input by the first input unit 11, a state transition table T2 that stores the name of a state transition object and a related tree, and a function table that stores commands in a transitioned state The
このように構成することにより、手と足による同時的な操作を実現し、さらに手と足について表示装置3上でまったく同じユーザインタフェースの操作を行えるようにすることができる。
By configuring in this way, it is possible to realize simultaneous operation by hand and foot, and furthermore, it is possible to perform the same user interface operation on the
図13はレイアウトテーブルT1の例を示す図である。 FIG. 13 is a diagram showing an example of the layout table T1.
図13(a)はレイアウトテーブルT1の例を示しており、(b)は足入力装置2のセンサWの配列、(c)は各センサW間の状態遷移を示している。
FIG. 13A shows an example of the layout table T1, FIG. 13B shows an array of sensors W of the
(b)に示すように床面上にマトリクス状に配置した足入力装置2のセンサWにそれぞれ0〜5のように付番すると、状態遷移としては(c)に示すようにそれぞれ近接するセンサWに移動することができる。このときの状態遷移の条件としては、それぞれのセンサWにおいて、規定の荷重の値Pを越えた場合に遷移するものとする。
When the sensors W of the
レイアウトテーブルT1では、(a)に示すように、これらの現在利用者Uが選択しているセンサWと、次に遷移し得るセンサWの候補とを対応付けて保持している。 In the layout table T1, as shown in (a), the sensor W currently selected by the user U and the candidate of the sensor W that can be changed next are stored in association with each other.
図14は状態遷移テーブルT2の例を示す図である。 FIG. 14 is a diagram illustrating an example of the state transition table T2.
図14(a)は状態遷移テーブルT2の例を示しており、(b)は対応する機能ツリーの例を示している。 FIG. 14A shows an example of the state transition table T2, and FIG. 14B shows an example of a corresponding function tree.
例えば、複写機の機能を例にとった場合、(b)に示すように、複写をする機能を選択したS0の初期状態「コピースタート」を始めとする機能のツリーとして表すことができる。それぞれの機能について0〜9のように付番すると、状態遷移テーブルT2では、(a)に示すように、それぞれの状態から次に進める状態についての状態遷移の候補を対応付けて保持している。 For example, when the function of the copying machine is taken as an example, it can be expressed as a tree of functions including the initial state “copy start” of S0 in which the function to copy is selected, as shown in FIG. If each function is numbered as 0 to 9 in the state transition table T2, as shown in (a), state transition candidates for the states to be advanced from the respective states are associated with each other and held. .
図15は機能テーブルT3の例を示す図である。 FIG. 15 is a diagram illustrating an example of the function table T3.
図15において、機能テーブルT3では、図14(b)で説明したような機能の状態について、それぞれの付番と機能名と条件とコマンドとを対応付けて保持している。例えば、S4については、機能名は「+1」、条件としてはクリックされたときにコマンドを実行し、そのコマンドは「部数を一つ増やす」といったような形で、コマンドが存在する機能について機能テーブルT3に記録してある。 In FIG. 15, in the function table T3, the numbering, the function name, the condition, and the command are stored in association with each other for the function states as described in FIG. For example, for S4, the function name is “+1”, the command is executed as a condition when clicked, and the command is “increase the number of copies”. Recorded at T3.
図16は本発明のユーザインタフェース装置の全体的な処理例を示すフローチャートである。なお、ここで挙げられている各定義済の処理の詳細については後述する。 FIG. 16 is a flowchart showing an overall processing example of the user interface apparatus of the present invention. Details of each defined process listed here will be described later.
図16において、機器1が利用者によって利用可能なように機器1を設置・起動することで機器1における操作処理を開始すると(ステップS101)、まずタイマによる割り込み処理の初期化を実行し、変数Fに0を代入する(ステップS102)。
In FIG. 16, when the operation process in the
次いで、タイマの割り込みを開始する(ステップS103)。タイマ処理により特定の足入力装置2上での利用者の動きの変化(重さの変化)を計測する。
Next, timer interruption is started (step S103). The change (weight change) of the movement of the user on the specific
次いで、初期状態処理(ステップS104)、センサ識別処理(ステップS105)、レイアウト表示処理(ステップS106)、コマンド実行処理(ステップS107)を順次実行する。 Next, initial state processing (step S104), sensor identification processing (step S105), layout display processing (step S106), and command execution processing (step S107) are sequentially executed.
そして、変数Fの値がタイマ処理によって「1」に更新されたかどうかを判断し(ステップS108)、Fが「1」でない場合はセンサ識別処理(ステップS105)にまで戻って処理を繰り返し、Fが「1」の場合はタイマの割り込みを終了し(ステップS109)、全処理を終了する(ステップS110)。 Then, it is determined whether or not the value of the variable F has been updated to “1” by the timer process (step S108). If F is not “1”, the process returns to the sensor identification process (step S105) and the process is repeated. When “1” is “1”, the interruption of the timer is terminated (step S109), and all the processes are terminated (step S110).
図17は初期状態処理(図16のステップ104)の例を示すフローチャートである。図16のタイマでは足入力装置2に一定時間とどまっているかどうか、図17では、実際に利用者が足入力装置2に乗るという行為を行うときの処理である。
FIG. 17 is a flowchart showing an example of the initial state process (step 104 in FIG. 16). In the timer of FIG. 16, whether or not the
図17おいて、処理を開始すると(ステップS201)、まず、選択している状態遷移テーブルT2のオブジェクトjをSjと表すとして、SjにS0、すなわち状態遷移テーブルT2の一番先頭のオブジェクトを選択状態としておく(ステップS202)。 In FIG. 17, when the processing is started (step S201), first, the object j of the selected state transition table T2 is represented as Sj, and S0 is selected as Sj, that is, the first object in the state transition table T2 is selected. The state is set (step S202).
次いで、足入力装置2のいずれかのセンサWで足入力が検知されたかどうかを判断し(ステップS203)、検出されない場合は検出処理を繰り返す。 Next, it is determined whether or not a foot input is detected by any of the sensors W of the foot input device 2 (step S203). If not detected, the detection process is repeated.
そして、足入力が検出された場合は、初期状態処理を終了する(ステップS204)。 If a foot input is detected, the initial state process is terminated (step S204).
図18はセンサ識別処理(図16のステップ105)の例を示すフローチャートである。この処理は直前の初期状態処理の後に、利用者が実際にどの特定の足入力装置2を操作しているのかを検出する処理である。
FIG. 18 is a flowchart showing an example of the sensor identification process (step 105 in FIG. 16). This process is a process of detecting which specific
図18おいて、処理を開始すると(ステップS301)、まず初期化として変数iに0を代入する(ステップS302)。 In FIG. 18, when the process is started (step S301), first, 0 is substituted for variable i as initialization (step S302).
次いで、足入力装置2の番号iについてのセンサWをWiと表すと、Wiに荷重がかかったかどうかを判断する(ステップS303)。
Next, when the sensor W for the number i of the
かかっていない場合は、i=i+1とし(ステップS304)、iが全センサ数MAXを越えるかどうか判断し(ステップS305)、越えていない場合はWiに荷重がかかったかどうかの判断(ステップS303)に戻る。越えた場合は変数iの初期化(ステップS302)に戻る。 If not, i = i + 1 is set (step S304), and it is determined whether i exceeds the total number of sensors MAX (step S305). Return to. If exceeded, the process returns to initialization of the variable i (step S302).
Wiで体重変化が検出された場合、その体重の値をGiとするとして、そのGiが規定の値Pを越えたかどうか判断する(ステップS306)。Pは例えば30kgとする。 When a change in body weight is detected in Wi, the weight value is assumed to be Gi, and it is determined whether the Gi exceeds a specified value P (step S306). P is, for example, 30 kg.
越えていない場合は、順次i=i+1として検出を繰り返す(ステップS304、S305)。 If not, the detection is repeated with i = i + 1 sequentially (steps S304 and S305).
越えた場合にはWiを利用者Uがクリック操作あるいはダブルクリック操作をしたものとして判断し、利用者Uは表示装置3上のオブジェクトとしてWiに対応する位置にあるオブジェクトを選択したものとし(ステップS307)、処理を終了する(ステップS308)。 If it exceeds, it is determined that Wi has been clicked or double-clicked by user U, and user U has selected an object at a position corresponding to Wi as an object on display device 3 (step In step S307, the process ends (step S308).
図19はレイアウト表示処理(図16のステップ106)の例を示すフローチャートである。これは図18の処理によって検出した特定の足入力装置2に対応した表示状態を更新する処理である。
FIG. 19 is a flowchart showing an example of the layout display process (step 106 in FIG. 16). This is a process of updating the display state corresponding to the specific
図19において、処理を開始すると(ステップS401)、利用者UがセンサWi上にいるとして、表示装置3上の対応する位置にあるオブジェクトに現在の状態であるSjを表示する(ステップS402)。現在の状態Sjを表示したオブジェクトは画面の中央になるように表示する。 In FIG. 19, when the process is started (step S401), it is assumed that the user U is on the sensor Wi, and the current state Sj is displayed on the object at the corresponding position on the display device 3 (step S402). The object displaying the current state Sj is displayed so as to be in the center of the screen.
次いで、レイアウトテーブルT1を参照し、現在のWiに対応する次候補を検索し、Wiの次候補があればそのリストを取得する(ステップS403〜S405)。次候補がない場合は処理を終了する(ステップS410)。 Next, referring to the layout table T1, the next candidate corresponding to the current Wi is searched, and if there is a next candidate for Wi, a list thereof is acquired (steps S403 to S405). If there is no next candidate, the process ends (step S410).
次いで、状態遷移テーブルT2を参照し、現在のSjに対応する次候補を検索し、次候補があればそのリストを取得する(ステップS406〜S408)。次候補がない場合は処理を終了する(ステップS410)。 Next, with reference to the state transition table T2, the next candidate corresponding to the current Sj is searched, and if there is a next candidate, the list is acquired (steps S406 to S408). If there is no next candidate, the process ends (step S410).
次いで、Wiの次候補リストにSjの次候補リストを順次表示していく(ステップS409)。このとき状態遷移について図14(b)の機能ツリーに示したように、上位にある機能については、表示として更新されないように優先して表示するものとする。 Next, the next candidate list of Sj is sequentially displayed in the next candidate list of Wi (step S409). At this time, as shown in the function tree of FIG. 14B, the state transition is preferentially displayed so that the upper functions are not updated as a display.
図20は上述したレイアウト表示処理における足入力装置2のセンサWと状態Sの関係付けの例を示す図である。
FIG. 20 is a diagram illustrating an example of the relationship between the sensor W and the state S of the
図20(a)(b)(c)では、図14(b)に示した機能ツリーの状態Sを足入力装置2の各センサWのマトリクス上に示してある。
20A, 20 </ b> B, and 20 </ b> C, the state S of the function tree shown in FIG. 14B is shown on the matrix of each sensor W of the
例えば、図20(a)に示すように、利用者UがセンサW0上から操作を開始したとすると、そこに状態S0の機能である「コピースタート」を割り当てる。 For example, as shown in FIG. 20A, if the user U starts an operation from the sensor W0, “copy start” which is a function of the state S0 is assigned thereto.
この状態で、利用者Uが状態S1の機能である「部数」選択をするときは、利用者UはセンサW1に移動する。すると(b)に示すように、利用者UはセンサW1上におり、機能としてはS1を選択していることから、次に選択できる候補として、図14(b)に示した機能ツリーのS4、S5や前の状態であるS0を選択できるよう、センサW2、W4、W0にそれぞれS4、S5、S0といったように、センサW1の周囲に機能を割り当てて行く。 In this state, when the user U selects “number of copies” which is a function of the state S1, the user U moves to the sensor W1. Then, as shown in (b), since the user U is on the sensor W1 and selects S1 as a function, S4 in the function tree shown in FIG. In order to select S5 and S0 which is the previous state, functions are assigned to the surroundings of the sensor W1, such as S4, S5 and S0, to the sensors W2, W4 and W0, respectively.
このほか、図20(c)に示すように、S1と直接状態遷移しないようなS2やS3といった機能についても、機能的に矛盾しないものについては空いているセンサ、例えばセンサW3やセンサW5などに割り当てておいて、機能ツリーをさかのぼらなくても他の機能を選べるようにしてもよい。このようにすることで、例えば利用者UがS4の状態を選択している場合も、S4→S1→S0のように状態をさかのぼらなくても、S2の状態を直接に選択するといったことができるようになり、利便性が向上する。 In addition, as shown in FIG. 20 (c), for functions such as S2 and S3 that do not change state directly with S1, those that are not functionally inconsistent are assigned to vacant sensors such as sensor W3 and sensor W5. It is also possible to assign other functions without going back up the function tree. By doing so, for example, even when the user U selects the state of S4, the state of S2 is directly selected without going back to the state of S4 → S1 → S0. It becomes possible to improve convenience.
図21に補足的に図20(a)と図20(b)の様子を機能ツリーの頭上にセンサの番号を割り付けた様子を示す。図21(a)はちょうど図20(a)の状態を示しており、図21(b)は図20(b)の様子を示している。このように状態が遷移して行くにしたがって、次に選択できる(遷移できる)状態の機能を利用者Uが現在立っているセンサWの位置の周囲に順次割り付けていく。 FIG. 21 supplementarily shows the state of FIG. 20A and FIG. 20B in which the sensor number is assigned above the head of the function tree. FIG. 21A shows the state of FIG. 20A, and FIG. 21B shows the state of FIG. As the state transitions in this way, the function of the state that can be selected (transitioned) next is sequentially assigned around the position of the sensor W where the user U is currently standing.
図22はコマンド実行処理(図16のステップ107)の例を示す図である。 FIG. 22 is a diagram showing an example of command execution processing (step 107 in FIG. 16).
図22において、処理を開始すると(ステップS501)、現在利用者Uが選択している機能Sjについて、それが機能テーブルT3にあるWiのクリックやダブルクリックといった条件を満たすか否か判断する(ステップS502)。 In FIG. 22, when the process is started (step S501), it is determined whether or not the function Sj currently selected by the user U satisfies a condition such as a click or double click of Wi in the function table T3 (step S501). S502).
条件を満たした場合、それに対応するコマンドSjを実行し(ステップS503)、処理を終了する(ステップS504)。 If the condition is met, the command Sj corresponding to the condition is executed (step S503), and the process is terminated (step S504).
複写機の場合、例えばSjがS0である場合に、ダブルクリック操作が行われると、コマンド「コピーの実行」を実行する。コピーを実行するとは、出力部18(図12)を通じて、複写機にコピー実行の制御情報を送出することである。複写機などの本発明の構成外の機器のハードウェア制御方法については、公知の技術を用いることができるため、ここでは詳細な説明を省略する。 In the case of a copying machine, for example, when Sj is S0, if a double-click operation is performed, the command “execute copy” is executed. Executing the copy means sending the copy execution control information to the copying machine through the output unit 18 (FIG. 12). Since a well-known technique can be used for a hardware control method for devices other than the configuration of the present invention such as a copying machine, detailed description thereof is omitted here.
図23はタイマ割り込み処理の例を示すフローチャートである。このタイマ割り込み処理は、これまで説明した処理の流れと並行した処理として実行する。 FIG. 23 is a flowchart showing an example of timer interrupt processing. This timer interrupt process is executed as a process in parallel with the process flow described so far.
図23において、処理を開始すると(ステップS601)、割り込みした回数をチェックし(ステップS602)、規定値を越えるかどうか判断する(ステップS603)。 In FIG. 23, when the process is started (step S601), the number of interrupts is checked (step S602), and it is determined whether the specified value is exceeded (step S603).
規定値を越えない場合には、割り込み回数をインクリメントし(ステップS604)、F=0を代入し(ステップS605)、待機状態に戻る(ステップS607)。 If the specified value is not exceeded, the interrupt count is incremented (step S604), F = 0 is substituted (step S605), and the process returns to the standby state (step S607).
また、規定値を越えた場合には、F=1を代入し(ステップS606)、待機状態に戻る(ステップS607)。 If the specified value is exceeded, F = 1 is substituted (step S606), and the process returns to the standby state (step S607).
この場合、タイマは例えば1秒ごとにイベントを発生するものとすると、規定値=3などとしておく。 In this case, if the timer generates an event every second, for example, the specified value = 3 is set.
図24は複写機の機能を反映した動作例を示す図である。 FIG. 24 is a diagram showing an operation example reflecting the function of the copying machine.
例えば、図24(a)のように利用者Uが最初に足入力装置2のセンサW0に載ると、表示装置3上には初期状態の画面を表示する。表示装置3の上部には現在選択されている複写機のパラメータ類をメニューとして表示する。
For example, as shown in FIG. 24A, when the user U first places on the sensor W0 of the
利用者UがセンサW1に移動すると、ちょうど表示装置3上でオブジェクト「コピースタート」という状態からオブジェクト「部数」という状態を選択したことに相当するクリック操作を実行する。表示装置3上では、図24(b)に示すようにオブジェクト「部数」を表示装置3上の中央に移動したように表示し、さらに「部数」を操作する状態になったことを利用者Uに告げるために、表示装置3上部の「部数:」という表示部分の表示を更新する。このとき、選択したオブジェクトと関連のあるオブジェクトと関連のないオブジェクトでは、視覚的に見分けがつくように表示する。
When the user U moves to the sensor W1, a click operation corresponding to selecting the state of the object “number of copies” from the state of the object “copy start” on the
次に、利用者UがセンサW1からセンサW2に移動すると、表示装置3上ではオブジェクト「+1」を選択したことになる(図24(c))。ここで、表示装置3上では、ちょうど状態が遷移してきた「部数」を「+1」する、つまり部数を1部から2部に増やす操作を実行し、表示装置3上部の表示も「部数:2部」に表示を更新する。
Next, when the user U moves from the sensor W1 to the sensor W2, the object “+1” is selected on the display device 3 (FIG. 24C). Here, on the
次に、利用者UがセンサW2からセンサW4に移動すると、表示装置上では、オブジェクト「色」が表示装置3上の中央に表示されるように表示状態が変わる(図25(a))。ここで、これまで「部数」のための操作であったものが「色」操作に変更し、表示装置3上部の「部数:」から「色:」の表示状態を更新する。
Next, when the user U moves from the sensor W2 to the sensor W4, the display state changes so that the object “color” is displayed at the center of the
次に、利用者UがセンサW4からセンサW3に移動すると、表示装置3上でも「カラー」が中央にくるように表示を更新する(図25(b))。ここで、表示装置3上では、ちょうど状態が遷移してきた「色」を「カラー」にする、つまり色をモノクロからカラーに変更する操作を実行する。表示装置3上部の表示でもその更新が分かるように「色:カラー」に更新する。
Next, when the user U moves from the sensor W4 to the sensor W3, the display is updated so that the “color” is also in the center on the display device 3 (FIG. 25B). Here, on the
次に、利用者UがセンサW3からセンサW0に移動すると、最初にいたオブジェクト「コピースタート」の位置に戻る(図25(c))。ここで、利用者Uがダブルクリック操作、すなわち、センサW0上で飛び跳ねるような動作をすると、「コピースタート」つまり、複写機の複写を実行する。このときこれまでの操作で選択した「部数:2部」「色:カラー」という複写機のパラメータが選択された状態で複写を実行する。 Next, when the user U moves from the sensor W3 to the sensor W0, the user U returns to the position of the first object “copy start” (FIG. 25C). Here, when the user U performs a double-click operation, that is, an operation that jumps on the sensor W0, “copy start”, that is, copying of the copying machine is executed. At this time, the copying is executed in a state where the parameters of the copying machine “number of copies: 2” and “color: color” selected in the previous operations are selected.
図26は表示しきれない複数候補がある場合の表示の例を示す図である。すなわち、状態遷移テーブルT2において遷移し得る候補がレイアウト上のオブジェクト数を越えている場合の処理の例を示す。 FIG. 26 is a diagram showing an example of display when there are a plurality of candidates that cannot be displayed. That is, an example of processing in the case where the number of candidates that can change in the state transition table T2 exceeds the number of objects on the layout is shown.
例えば、Dの先に、D,E,F,Gのように多数の遷移の候補がある場合を想定する。 For example, it is assumed that there are many transition candidates such as D, E, F, and G before D.
このような場合では、状態1で「D〜」のように複数の候補があることを表示装置3上に表示する。
In such a case, it is displayed on the
そして、利用者Uが「D〜」を選択した場合、状態2(a)として、移動候補「D」を中央に表示し、その他の移動候補を周囲に表示するようにし、「D」のコマンドを実行する場合にはダブルクリックを行うようにする。あるいは、状態2(b)のように、D,E,F,Gを周囲に表示し、クリック操作として遷移した場合にそれぞれのコマンドを実行するようにする。 When the user U selects “D˜”, as the state 2 (a), the movement candidate “D” is displayed in the center, and other movement candidates are displayed in the surroundings. When executing, double-click. Alternatively, as in state 2 (b), D, E, F, and G are displayed in the surroundings, and each command is executed when transition is made as a click operation.
図27は手入力と足入力を併用した場合の動作の例を示す図である。 FIG. 27 is a diagram showing an example of the operation when hand input and foot input are used together.
表示装置3上に表示したオブジェクトは、上述したように足入力装置2によるほか、手入力装置4を通じて操作してもよい。この場合、利用者Uは足入力装置2の所定の位置にいたままでよく、この状態で手によって手入力装置4を通じて表示装置3のオブジェクトを選択する。
The object displayed on the
この場合、例えば、(a)に示すように、Aの状態から隣のBというオブジェクトを選択すると表示装置3上では、(b)に示すようにBが中央になるように表示を更新する。利用者Uはちょうど、足入力装置2の左上端にあるセンサに位置していることから、表示装置3上では、Bよりも左側に遷移すべきオブジェクトは表示できない。この場合、機能ツリーの上位にある状態遷移先を優先して画面上に残すように表示する。
In this case, for example, as shown in (a), when the adjacent object B is selected from the state of A, the display is updated on the
これにより、状態遷移をひとつ前の状態に戻すこともできるように表示できるし、メニュー系列の状態遷移を操作し、足入力装置2のセンサを渡り歩くと、メニューも状態遷移にしたがって動的に変化し、かつ、タッチパネル装置などの手入力装置4と組み合わせて、同時に手でもメニューを操作して状態遷移を操作することができる。
As a result, the state transition can be displayed so that it can be returned to the previous state, and the menu changes dynamically according to the state transition when the state transition of the menu sequence is operated and the sensor of the
以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。 The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.
1 機器
2 足入力装置
3 表示装置
4 手入力装置
5 発光・受光装置
6 カメラ
7 超音波送受信装置
11 第一入力部
12 第二入力部
13 入力判定部
14 タイマ部
15 記憶部
16 状態遷移更新部
17 表示部
18 出力部
T1 レイアウトテーブル
T2 状態遷移テーブル
T3 機能テーブル
W センサ
U 利用者
DESCRIPTION OF
Claims (10)
利用者の手や指による操作を検出する第二の入力手段と、
上記第一の入力手段および第二の入力手段の検出した位置や入力状態を判定する入力判定手段と、
時間的な待受け処理を実行するタイマ手段と、
上記第一の入力手段の入力可能な各位置の配置を記憶するレイアウトテーブル、状態遷移のデータを記憶する状態遷移テーブル、および、遷移した状態でのコマンドを記憶する機能テーブルを保持する記憶手段と、
上記入力判定手段の処理に基づき上記記憶手段からデータを読みだして状態遷移を更新する状態遷移更新手段と、
この状態遷移更新手段の更新結果を表示装置に表示する表示手段と、
上記入力判定手段の処理において上記状態遷移テーブルおよび機能テーブルのデータが所定の条件を満たしたときに上記機能テーブルのコマンドを実行する出力手段とを備えたことを特徴とするユーザインタフェース装置。 A first input means for detecting a user's standing position;
A second input means for detecting a user's hand or finger operation;
Input determining means for determining the position and input state detected by the first input means and the second input means;
A timer means for executing a temporal standby process;
Storage means for holding a layout table for storing the arrangement of each position that can be input by the first input means, a state transition table for storing state transition data, and a function table for storing commands in the transitioned state; ,
A state transition update unit that reads data from the storage unit based on the processing of the input determination unit and updates the state transition;
Display means for displaying the update result of the state transition update means on the display device;
A user interface apparatus comprising: output means for executing a command of the function table when data of the state transition table and the function table satisfy a predetermined condition in the processing of the input determination means.
上記第一の入力手段は、時間間隔を測定する計時手段を有し、
所定の時間以内に規定値以上の値を上回る回数によってクリックやダブルクリックといった入力状態を検知することを特徴とするユーザインタフェース装置。 The user interface device according to claim 1,
The first input means has time measuring means for measuring a time interval,
A user interface device that detects an input state such as a click or a double click by a number of times exceeding a specified value within a predetermined time.
上記第一の入力手段は、利用者の位置と体重移動を測定するマトリクス状の体重計や圧力センサから構成されることを特徴とするユーザインタフェース装置。 The user interface device according to claim 1,
The user interface device according to claim 1, wherein the first input means comprises a matrix scale and a pressure sensor for measuring a user's position and weight shift.
上記表示手段は、上記第一の入力手段もしくは第二の入力手段による操作に応じて、選択対象が上記表示装置の中央に表示するように表示物を移動することを特徴とするユーザインタフェース装置。 The user interface device according to claim 1,
The user interface device, wherein the display means moves a display object so that a selection target is displayed in the center of the display device in response to an operation by the first input means or the second input means.
上記表示手段は、上記状態遷移テーブルの機能間の関連があるものを関連ないものに比較して大きくしたり色を変えたりといった強調表示を行うことを特徴とするユーザインタフェース装置。 The user interface device according to claim 1,
The user interface device according to claim 1, wherein the display means performs highlighting such that a relationship between functions of the state transition table is increased or a color is changed as compared with an unrelated one.
利用者の手や指による操作を検出する第二の入力工程と、
上記第一の入力工程および第二の入力工程の検出した位置や入力状態を判定する入力判定工程と、
時間的な待受け処理を実行するタイマ工程と、
上記第一の入力工程の入力可能な各位置の配置を記憶するレイアウトテーブル、状態遷移のデータを記憶する状態遷移テーブル、および、遷移した状態でのコマンドを記憶する機能テーブルを保持する記憶手段と、
上記入力判定工程の処理に基づき上記記憶手段からデータを読みだして状態遷移を更新する状態遷移更新工程と、
この状態遷移更新工程の更新結果を表示装置に表示する表示工程と、
上記入力判定工程の処理において上記状態遷移テーブルおよび機能テーブルのデータが所定の条件を満たしたときに上記機能テーブルのコマンドを実行する出力工程とを備えたことを特徴とするユーザインタフェース方法。 A first input step for detecting the user's standing position;
A second input process for detecting an operation by a user's hand or finger;
An input determination step of determining the detected position and input state of the first input step and the second input step;
A timer process for executing a time standby process;
A storage means for holding a layout table for storing the arrangement of each position that can be input in the first input step, a state transition table for storing state transition data, and a function table for storing commands in the transitioned state; ,
A state transition update step of reading data from the storage means based on the processing of the input determination step and updating the state transition;
A display process for displaying the update result of the state transition update process on a display device;
A user interface method comprising: an output step of executing a command of the function table when data of the state transition table and the function table satisfy a predetermined condition in the processing of the input determination step.
上記第一の入力工程は、時間間隔を測定する計時工程を有し、
所定の時間以内に規定値以上の値を上回る回数によってクリックやダブルクリックといった入力状態を検知することを特徴とするユーザインタフェース方法。 The user interface method according to claim 6, wherein
The first input step has a timing step for measuring a time interval,
A user interface method, wherein an input state such as a click or a double click is detected by a number of times exceeding a specified value within a predetermined time.
上記第一の入力工程は、利用者の位置と体重移動を測定するマトリクス状の体重計や圧力センサから信号を入力することを特徴とするユーザインタフェース方法。 The user interface method according to claim 6, wherein
The user interface method according to claim 1, wherein the first input step inputs a signal from a matrix weight scale or a pressure sensor that measures the position and weight shift of the user.
上記表示工程は、上記第一の入力工程もしくは第二の入力工程による操作に応じて、選択対象が上記表示装置の中央に表示するように表示物を移動することを特徴とするユーザインタフェース方法。 The user interface method according to claim 6, wherein
In the user interface method, the display step moves the display object so that the selection target is displayed in the center of the display device according to the operation in the first input step or the second input step.
上記表示工程は、上記状態遷移テーブルの機能間の関連があるものを関連ないものに比較して大きくしたり色を変えたりといった強調表示を行うことを特徴とするユーザインタフェース方法。 The user interface method according to claim 6, wherein
The user interface method according to claim 1, wherein the display step performs highlighting such that the relationship between the functions of the state transition table is made larger or the color is changed as compared with those not related.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006187994A JP2008015887A (en) | 2006-07-07 | 2006-07-07 | User interface device and user interface method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006187994A JP2008015887A (en) | 2006-07-07 | 2006-07-07 | User interface device and user interface method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008015887A true JP2008015887A (en) | 2008-01-24 |
Family
ID=39072818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006187994A Pending JP2008015887A (en) | 2006-07-07 | 2006-07-07 | User interface device and user interface method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008015887A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211379A (en) * | 2009-03-09 | 2010-09-24 | Nintendo Co Ltd | Information processing program and information processing apparatus |
JP2010259611A (en) * | 2009-05-07 | 2010-11-18 | Nintendo Co Ltd | Information processing program and information processor |
JP2016049252A (en) * | 2014-08-29 | 2016-04-11 | 大日本印刷株式会社 | Game device |
JP2016174699A (en) * | 2015-03-19 | 2016-10-06 | 大日本印刷株式会社 | Game controller |
-
2006
- 2006-07-07 JP JP2006187994A patent/JP2008015887A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211379A (en) * | 2009-03-09 | 2010-09-24 | Nintendo Co Ltd | Information processing program and information processing apparatus |
JP2010259611A (en) * | 2009-05-07 | 2010-11-18 | Nintendo Co Ltd | Information processing program and information processor |
US9833705B2 (en) | 2009-05-07 | 2017-12-05 | Nintendo Co., Ltd. | Storage medium storing information processing program, information processing apparatus and information processing method |
JP2016049252A (en) * | 2014-08-29 | 2016-04-11 | 大日本印刷株式会社 | Game device |
JP2016174699A (en) * | 2015-03-19 | 2016-10-06 | 大日本印刷株式会社 | Game controller |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2701044B1 (en) | Information processing device, information processing method, and computer-readable recording medium which records program | |
JP3847641B2 (en) | Information processing apparatus, information processing program, computer-readable recording medium storing information processing program, and information processing method | |
JP5730667B2 (en) | Method for dual-screen user gesture and dual-screen device | |
KR101323281B1 (en) | Input device and method for inputting character | |
CN103164112B (en) | Use the user terminal display control unit and method based on user of grip sensor | |
US8334837B2 (en) | Method for displaying approached interaction areas | |
JP4769552B2 (en) | Terminal and terminal control program | |
US9207806B2 (en) | Creating a virtual mouse input device | |
JP5148700B2 (en) | Input detection device, input detection method, program, and recording medium | |
US20110102336A1 (en) | User interface apparatus and method | |
CN108733303B (en) | Touch input method and apparatus of portable terminal | |
TW201145146A (en) | Handling tactile inputs | |
JP2013131087A (en) | Display device | |
CN101263448A (en) | Activating virtual keys of a touch-screen virtual keyboard | |
JP2011053831A (en) | Information processing device, information processing method, and program | |
KR101019254B1 (en) | apparatus having function of space projection and space touch and the controlling method thereof | |
JP2007148927A (en) | Input device and scrolling control method using the same | |
CN104243749B (en) | The control method of image processing system and image processing system | |
KR102205283B1 (en) | Electro device executing at least one application and method for controlling thereof | |
KR20120064756A (en) | Method and apparatus for displaying screen of mobile terminal comprising touch screen | |
JP2008015887A (en) | User interface device and user interface method | |
JP2007188233A (en) | Touch panel input device | |
JP2008009856A (en) | Input device | |
JP2015525927A (en) | Method and apparatus for controlling a display device | |
JP2011216065A (en) | Input device, control circuit, electronic system and operation method |