JP2008015887A - User interface device and user interface method - Google Patents

User interface device and user interface method Download PDF

Info

Publication number
JP2008015887A
JP2008015887A JP2006187994A JP2006187994A JP2008015887A JP 2008015887 A JP2008015887 A JP 2008015887A JP 2006187994 A JP2006187994 A JP 2006187994A JP 2006187994 A JP2006187994 A JP 2006187994A JP 2008015887 A JP2008015887 A JP 2008015887A
Authority
JP
Japan
Prior art keywords
input
user interface
state transition
user
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006187994A
Other languages
Japanese (ja)
Inventor
Soichiro Iga
聡一郎 伊賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2006187994A priority Critical patent/JP2008015887A/en
Publication of JP2008015887A publication Critical patent/JP2008015887A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily perform menu selection and command execution in an apparatus or the like. <P>SOLUTION: This user interface device is provided with: a first inputting means for detecting a standing position of a user; a second inputting means for detecting an operation by the user's hand or a finger; an input determining means for determining positions and input states detected by the first inputting means and the second inputting means; a timer means for executing temporal waiting processing; a storing means holding a layout table, a state transition table and a function table; a state transition updating means for reading data from the storing means on the basis of processing of the input determining means to update a state transition; a displaying means for displaying an update result of the state transition updating means; and an outputting means for executing a command of the function table when data of the state transition table and the function table satisfy a predetermined condition in the processing of the input determining means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、機器類におけるメニュー選択やコマンド実行を簡単に行えるようにするために、手と足の両方を用い、動的に変化する項目を操作して入力可能にするユーザインタフェース装置およびユーザインタフェース方法に関する。   The present invention relates to a user interface device and a user interface that use both hands and feet to enable operation and input of dynamically changing items so that menu selection and command execution in devices can be easily performed. Regarding the method.

ゲーム機器やバーチャルリアリティ技術を応用したシステムを中心として、利用者の身体的なジェスチャを用いて情報を操作するようなユーザインタフェースの開発が盛んに行われている。   The development of user interfaces that manipulate information using physical gestures of users has been actively conducted, centering on game machines and systems that apply virtual reality technology.

例えば、特許文献1や特許文献2では、足のステップでゲーム操作する発明が開示されている。また、特許文献3や特許文献4では、体重移動の方向および大きさを検出する仮想現実内移動のための入力インタフェース装置の発明が開示されている。
特開2004−24903号公報「ゲーム装置、情報記憶媒体、ゲーム配信装置及びゲーム配信方法」 特開2005−143714号公報「ゲーム装置制御方法とゲーム装置」 特開平11−305907号公報「仮想空間制御方法、仮想空間制御装置、および仮想空間制御プログラムを記録した記録媒体」 特開2004−102800号公報「身体方向検出装置、身体方向検出方法及び仮想環境疑似体験システム」
For example, Patent Literature 1 and Patent Literature 2 disclose an invention in which a game operation is performed at a foot step. Patent Documents 3 and 4 disclose an invention of an input interface device for movement in virtual reality that detects the direction and magnitude of weight movement.
JP 2004-24903 A “Game Device, Information Storage Medium, Game Distribution Device, and Game Distribution Method” JP 2005-143714 A “Game Device Control Method and Game Device” Japanese Patent Laid-Open No. 11-305907 “Virtual Space Control Method, Virtual Space Control Device, and Recording Medium Recording Virtual Space Control Program” Japanese Unexamined Patent Application Publication No. 2004-102800 “Body Direction Detection Device, Body Direction Detection Method, and Virtual Environment Simulated Experience System”

しかし、これらの先行技術では、足スイッチと視覚的な操作対象が一意に決まっており、状態遷移などの動的なものを操作するようにはできていない。また、手足同時に操作する仕組みは提供されていない。   However, in these prior arts, the foot switch and the visual operation target are uniquely determined, and dynamic operations such as state transition cannot be operated. In addition, there is no mechanism to operate limbs at the same time.

したがって、これらの先行技術では、単なる入力スイッチとして足による入力を使うことはできるが、複数の項目がツリー状になっているような複雑なメニュー選択はできなかった。   Therefore, in these prior arts, input by foot can be used as a mere input switch, but complicated menu selection in which a plurality of items are in a tree shape cannot be performed.

さらに、利用者は手や足を同時的に用いることができず、また、手と足で同じ情報を操作するようなユーザインタフェースが提供されていないため、効率的に項目の選択や入力が行えなかった。   In addition, users cannot use their hands and feet simultaneously, and there is no user interface for operating the same information with their hands and feet, so items can be selected and input efficiently. There wasn't.

本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、機器類におけるメニュー選択やコマンド実行を簡単に行えるようにするために、手と足の両方を用いて動的に変化する項目を操作して入力可能にするユーザインタフェース装置およびユーザインタフェース方法を提供することにある。   The present invention has been proposed in view of the above-mentioned conventional problems, and the object of the present invention is to use both hands and feet to easily perform menu selection and command execution in devices. It is an object of the present invention to provide a user interface device and a user interface method that enable input by operating items that change dynamically.

上記の課題を解決するため、本発明にあっては、請求項1に記載されるように、利用者の立ち位置を検出する第一の入力手段と、利用者の手や指による操作を検出する第二の入力手段と、上記第一の入力手段および第二の入力手段の検出した位置や入力状態を判定する入力判定手段と、時間的な待受け処理を実行するタイマ手段と、上記第一の入力手段の入力可能な各位置の配置を記憶するレイアウトテーブル、状態遷移のデータを記憶する状態遷移テーブル、および、遷移した状態でのコマンドを記憶する機能テーブルを保持する記憶手段と、上記入力判定手段の処理に基づき上記記憶手段からデータを読みだして状態遷移を更新する状態遷移更新手段と、この状態遷移更新手段の更新結果を表示装置に表示する表示手段と、上記入力判定手段の処理において上記状態遷移テーブルおよび機能テーブルのデータが所定の条件を満たしたときに上記機能テーブルのコマンドを実行する出力手段とを備えるユーザインタフェース装置を要旨としている。   In order to solve the above problems, in the present invention, as described in claim 1, the first input means for detecting the standing position of the user and the operation by the user's hand or finger are detected. Second input means, input determination means for determining the position and input state detected by the first input means and the second input means, timer means for executing a temporal standby process, and the first input means A storage table that stores a layout table that stores the arrangement of each position that can be input by the input unit, a state transition table that stores state transition data, and a function table that stores commands in the transitioned state, and the above input State transition update means for reading data from the storage means based on processing of the determination means and updating the state transition, display means for displaying the update result of the state transition update means on a display device, and the input determination Data of the state transition table and the function table is summarized as a user interface device and an output means for executing the command of the function table when a predetermined condition is satisfied in the processing stage.

また、請求項2に記載されるように、請求項1に記載のユーザインタフェース装置において、上記第一の入力手段は、時間間隔を測定する計時手段を有し、所定の時間以内に規定値以上の値を上回る回数によってクリックやダブルクリックといった入力状態を検知するようにすることができる。   In addition, as described in claim 2, in the user interface device according to claim 1, the first input unit includes a time measuring unit that measures a time interval, and is equal to or greater than a predetermined value within a predetermined time. It is possible to detect an input state such as a click or a double click by the number of times exceeding the value of.

また、請求項3に記載されるように、請求項1に記載のユーザインタフェース装置において、上記第一の入力手段は、利用者の位置と体重移動を測定するマトリクス状の体重計や圧力センサから構成されるものとすることができる。   In addition, as described in claim 3, in the user interface device according to claim 1, the first input means includes a matrix weight scale and a pressure sensor for measuring the position and weight shift of the user. It can be configured.

また、請求項4に記載されるように、請求項1に記載のユーザインタフェース装置において、上記表示手段は、上記第一の入力手段もしくは第二の入力手段による操作に応じて、選択対象が上記表示装置の中央に表示するように表示物を移動するようにすることができる。   According to a fourth aspect of the present invention, in the user interface device according to the first aspect, the display unit is configured such that the selection target is the first input unit or the second input unit according to an operation by the first input unit or the second input unit. The display object can be moved so as to be displayed in the center of the display device.

また、請求項5に記載されるように、請求項1に記載のユーザインタフェース装置において、上記表示手段は、上記状態遷移テーブルの機能間の関連があるものを関連ないものに比較して大きくしたり色を変えたりといった強調表示を行うようにすることができる。   Further, according to a fifth aspect of the present invention, in the user interface device according to the first aspect, the display means enlarges the relationship between the functions of the state transition table compared to the unrelated one. And highlighting such as changing colors.

また、請求項6〜10に記載されるように、ユーザインタフェース方法として構成することができる。   Moreover, as described in claims 6 to 10, it can be configured as a user interface method.

本発明のユーザインタフェース装置およびユーザインタフェース方法にあっては、利用者は動的に変化する表示装置上のオブジェクトについて、その一つのオブジェクトについて手と足の双方を用いて操作できるため、機器類におけるメニュー選択やコマンド実行が簡単に行えるようになる。この場合、手を必ずしも用いる必要もないため、例えば手に荷物を抱えているときでも足によって機器操作を行うことができる。また、本発明により、手や指によって実現するクリック操作やダブルクリック操作に相当する操作を足による入力時にも実現することができる。   In the user interface device and the user interface method of the present invention, a user can operate an object on a display device that changes dynamically by using both hands and feet for the object. Menu selection and command execution can be performed easily. In this case, since it is not always necessary to use the hand, for example, the device can be operated with the foot even when the baggage is held in the hand. In addition, according to the present invention, an operation corresponding to a click operation or a double click operation realized by a hand or a finger can be realized at the time of input by a foot.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

図1は本発明のユーザインタフェース装置を複写機に適用した一実施形態の外観例を示す図である。   FIG. 1 is a diagram showing an example of the appearance of an embodiment in which the user interface device of the present invention is applied to a copying machine.

図1において、ユーザインタフェース装置は、利用者Uの足もとに配置した体重計や圧力センサなどから構成される足入力装置2と、タッチパネルディスプレイなどから構成される表示装置3および手入力装置4とから成る。例えば、表示装置3と手入力装置4は、複写機等の機器1のオペレーションパネルなどである。また、足入力装置2は、利用者Uが足によって移動しやすいように、センサをマトリクス状に配置する。例えば、横3列、縦2列のマトリクスとして構成することができる。   In FIG. 1, the user interface device includes a foot input device 2 including a scale, a pressure sensor, and the like disposed at the foot of the user U, a display device 3 including a touch panel display, and a manual input device 4. Become. For example, the display device 3 and the manual input device 4 are operation panels of the device 1 such as a copying machine. In addition, the foot input device 2 arranges the sensors in a matrix so that the user U can easily move with his / her foot. For example, it can be configured as a matrix of 3 horizontal rows and 2 vertical columns.

図2は本発明のユーザインタフェース装置を他の機器に適用した外観例を示す図であり、(a)は機器1としてレジ(金銭登録機)に適用したものであり、(b)は機器1として広告ディスプレイに適用したものである。その他の機器にも適用できることは明らかであろう。   FIG. 2 is a diagram showing an example of an external appearance in which the user interface device of the present invention is applied to another device. (A) is applied to a cash register (cash register) as the device 1, and (b) is a device 1. Applied to the advertising display. It will be apparent that it can be applied to other devices.

図3は足入力装置2、表示装置3および手入力装置4の例を示す図である。   FIG. 3 is a diagram illustrating an example of the foot input device 2, the display device 3, and the manual input device 4.

図3において、表示装置3上には、「状態遷移図」に見立てたようなオブジェクトA〜Fを表示してあり、利用者Uは手や足によってこのオブジェクト間の移行を操作することにより、それらオブジェクトに関連付けられたメニューを選択したり、コマンドを実行したりする。   In FIG. 3, on the display device 3, objects A to F like the “state transition diagram” are displayed, and the user U operates the transition between the objects by hands and feet. Select the menu associated with those objects and execute commands.

利用者Uが現在選択しているオブジェクトは例えば背景色を変えたり、外枠の表示状態を変えたりすることで、どこに利用者Uがいるかが分かるようになっている。   For example, the object currently selected by the user U can be identified by changing the background color or changing the display state of the outer frame.

表示装置3上のオブジェクトA〜Fは、ちょうど足入力装置2のセンサW0〜W5のマトリクス配列に対応するような形で存在する。例えば、現在利用者Uは表示装置3のオブジェクトBを選択していて、足入力装置2のセンサW1上にいるとすると、利用者Uが「a」の方向、つまり、センサW0に移動すると、表示装置3上では、オブジェクトBからオブジェクトAに選択状態が移動する。このとき、オブジェクトAがちょうど表示装置3の中央に表示されるようにする。   The objects A to F on the display device 3 exist in a form corresponding to the matrix arrangement of the sensors W0 to W5 of the foot input device 2. For example, if the user U currently selects the object B of the display device 3 and is on the sensor W1 of the foot input device 2, when the user U moves in the direction “a”, that is, the sensor W0, On the display device 3, the selected state moves from the object B to the object A. At this time, the object A is displayed just in the center of the display device 3.

利用者Uは手入力装置4を用いて同様の操作を行うことができる。すなわち、オブジェクトBの位置にいるときに、手でオブジェクトAを押下することにより、オブジェクトBからオブジェクトAに選択状態が移動する。   The user U can perform the same operation using the manual input device 4. That is, when the object A is at the position of the object B, the selected state moves from the object B to the object A by pressing the object A with a hand.

すなわち、利用者Uは手と足を同時的に用いて動的に変化するような複雑なメニューやコマンド体系を実行することができる。このとき、必ずしも手を用いる必要はないため、例えば雑誌などを複写機のコピー面などに押さえつけている状態や、手に荷物を抱えている場合などでも、足によって機器1を操作するといったことができる。   That is, the user U can execute complicated menus and command systems that change dynamically using hands and feet simultaneously. At this time, since it is not always necessary to use the hand, for example, the device 1 is operated with the foot even when a magazine or the like is pressed against the copy surface of the copying machine or when the baggage is held in the hand. it can.

もちろん、従来より障害者支援用のフットスイッチのように単に足の入力を一般のキー入力に対応させるような入力装置や、ペンタッチなどの入力に対して状態遷移を行わせる視覚的インタフェースの存在は知られているが、手足の同時操作が可能であり、なおかつ手と足の双方で同じ操作インタフェースを操作でき、さらに手と足それぞれ別々に操作することもできるようなユーザインタフェースはこれまでなかった。   Of course, there is an existing input device that makes foot input correspond to general key input just like a foot switch for assisting people with disabilities, and a visual interface that makes state transitions for input such as pen touch. Although it is known, there has been no user interface that can operate the limbs at the same time, can operate the same operation interface with both hands and feet, and can also operate each hand and feet separately. .

図4は足入力装置2を構成するセンサWの動作例を示す図である。   FIG. 4 is a diagram illustrating an operation example of the sensor W constituting the foot input device 2.

図4において、利用者Uがマトリクス状に配置した足入力装置2の一つのセンサW上に足を載せると、体重計あるいは圧力センサであるセンサWが利用者Uの体重がかかったことを検出する。   In FIG. 4, when the user U puts his / her foot on one sensor W of the foot input device 2 arranged in a matrix, the sensor W which is a scale or a pressure sensor detects that the weight of the user U is applied. To do.

図5は荷重変化によりクリックを検出する様子を示す図である。   FIG. 5 is a diagram illustrating a state in which a click is detected by a load change.

図5において、足入力装置2では時系列上でのかかった荷重の変化を測定する。測定値が規定の値Pを越えたときに、パソコンでいういわゆるマウスクリックのような入力が行われたと判定する。   In FIG. 5, the foot input device 2 measures a change in applied load on the time series. When the measured value exceeds a specified value P, it is determined that an input such as a so-called mouse click on a personal computer has been performed.

図6は荷重変化によりダブルクリックを検出する様子を示す図である。   FIG. 6 is a diagram showing a state in which a double click is detected by a load change.

図6において、足入力装置2では時系列上でのかかった荷重の変化を測定するが、特に計時機能(手段)を有することで、時間tinterval以内に2度、規定の値Pを越えた場合には、ダブルクリック操作が行われたと判定する。検出する回数は1度や2度とは限らず、さらに多くの回数を検出するようにしてもよい。 In FIG. 6, the foot input device 2 measures a change in load applied in time series, but in particular, by having a time measuring function (means), the prescribed value P was exceeded twice within a time t interval . In this case, it is determined that a double click operation has been performed. The number of times of detection is not limited to once or twice, and more times may be detected.

図7に示すように、足入力装置2は、入力面全体をひとつの入力装置としてみなして、傾斜センサにより入力面の傾きを検知し、その傾きの値によって、現在の利用者の状態を決定する方式によっても実現することができる。   As shown in FIG. 7, the foot input device 2 regards the entire input surface as one input device, detects the inclination of the input surface with an inclination sensor, and determines the current user state based on the value of the inclination. It can also be realized by the method of doing.

図8は足入力装置2のセンサWのマトリクス構成の例を示す図である。   FIG. 8 is a diagram illustrating an example of a matrix configuration of the sensors W of the foot input device 2.

図8(a)はセンサWを3×2のマトリクス状に構成した場合を示し、(b)は6×4のマトリクス状に構成した場合を示している。マトリクスの数はこれらに限定されず、更に増やすこともできるし、減らすこともできる。また、縦横の比率を変えることもできる。   FIG. 8A shows a case where the sensors W are configured in a 3 × 2 matrix, and FIG. 8B shows a case where the sensors W are configured in a 6 × 4 matrix. The number of matrices is not limited to these, and can be further increased or decreased. Also, the aspect ratio can be changed.

図9は足入力装置2の他の認識方法の例を示す図である。   FIG. 9 is a diagram illustrating an example of another recognition method of the foot input device 2.

図9(a)は機器1に設けた発光・受光装置5によりLED光を投光してその反射光を認識し、利用者Uの立ち位置を検出する方式である。また、(b)は機器1に設けた複数台のカメラ6により左右奥行き方向の利用者Uの立ち位置を画像から認識する方式である。(c)は機器1に設けた複数の超音波送受信装置7により超音波を送受信してそれらの間の時間的な差から利用者Uまでの距離を計測することで利用者Uの立ち位置を検出する方式である。その他に様々の方式を利用することができる。   FIG. 9A shows a system in which LED light is projected by the light emitting / receiving device 5 provided in the device 1 to recognize the reflected light and detect the standing position of the user U. (B) is a method of recognizing the standing position of the user U in the left-right depth direction from the image by a plurality of cameras 6 provided in the device 1. In (c), the ultrasonic wave is transmitted / received by a plurality of ultrasonic transmission / reception devices 7 provided in the device 1 and the distance to the user U is measured from the time difference between them to determine the standing position of the user U. This is a detection method. Various other methods can be used.

図10は図1に示した体重計や圧力センサによる技術と図9に示した技術とを組み合わせたものである。すなわち、利用者Uが機器1に近づくのを発光・受光装置5、カメラ6あるいは超音波送受信装置7により認識し、機器1の表示部をスタートアップしたり、あるいは利用者Uが足入力装置2に乗っていない状態を認識したりすることができる。   FIG. 10 is a combination of the technique using the weight scale and pressure sensor shown in FIG. 1 and the technique shown in FIG. That is, the light emitting / receiving device 5, the camera 6, or the ultrasonic transmission / reception device 7 recognizes that the user U approaches the device 1 and starts up the display unit of the device 1, or the user U uses the foot input device 2. You can recognize when you are not riding.

図11は足入力装置2の付加機能の例を示す図であり、利用者Uが足入力装置2のどの位置にいるのかを識別しやすいように工夫したものである。図11(a)は足入力装置2のセンサWに選択時に光や音の変化を伴うようなアクチュエータを備えた例であり、(b)は選択されたセンサWに状態を表示するディスプレイを設けた例である。このようにすることにより、利用者Uが足入力装置2の所定のセンサWに載った場合に、きちんと認識されているかどうかを判断しやすくすることができる。   FIG. 11 is a diagram illustrating an example of an additional function of the foot input device 2, which is devised so that the user U can easily identify the position of the foot input device 2. FIG. 11A is an example in which the sensor W of the foot input device 2 is provided with an actuator that causes a change in light or sound when selected, and FIG. 11B is provided with a display for displaying the state on the selected sensor W. This is an example. By doing in this way, when the user U gets on the predetermined sensor W of the foot input device 2, it can be easily determined whether or not the user U is properly recognized.

図12は本発明のユーザインタフェース装置の機能ブロックの例を示す図である。   FIG. 12 is a diagram showing an example of functional blocks of the user interface device of the present invention.

図12において、ユーザインタフェース装置は、体重計や圧力センサなどで構成される足による入力を検出する第一入力部11(図1の足入力装置2に相当)と、タッチパネルなどで構成される手や指による入力を検出する第二入力部12(図1の手入力装置4に相当)と、これらの入力を判定する入力判定部13と、時間的な待受け処理を実行するタイマ部14とを備えている。   In FIG. 12, the user interface device includes a first input unit 11 (corresponding to the foot input device 2 in FIG. 1) for detecting input by a foot composed of a scale, a pressure sensor, etc., and a hand composed of a touch panel. And a second input unit 12 (corresponding to the manual input device 4 in FIG. 1) for detecting input by a finger, an input determination unit 13 for determining these inputs, and a timer unit 14 for executing temporal standby processing I have.

また、第一入力部11の入力可能な各位置の配置を記憶するレイアウトテーブルT1、状態遷移のオブジェクトの名称と関連ツリーを記憶する状態遷移テーブルT2、遷移した状態でのコマンドを記憶する機能テーブルT3を保持する記憶部15と、入力判定部13の処理に基づき記憶部15からデータを読みだして状態遷移を更新する状態遷移更新部16と、状態遷移更新部16の更新結果を表示装置3に表示する表示部17と、入力判定部13の処理において状態遷移テーブルT2と機能テーブルT3のデータが所定の条件を満たしたときに機能テーブルT3のコマンドを機器1に対して実行する出力部18とを備えている。   In addition, a layout table T1 that stores the arrangement of each position that can be input by the first input unit 11, a state transition table T2 that stores the name of a state transition object and a related tree, and a function table that stores commands in a transitioned state The storage unit 15 that holds T3, the state transition update unit 16 that reads data from the storage unit 15 based on the processing of the input determination unit 13 and updates the state transition, and the update result of the state transition update unit 16 are displayed on the display device 3 And the output unit 18 that executes the command of the function table T3 to the device 1 when the data of the state transition table T2 and the function table T3 satisfy a predetermined condition in the processing of the input determination unit 13. And.

このように構成することにより、手と足による同時的な操作を実現し、さらに手と足について表示装置3上でまったく同じユーザインタフェースの操作を行えるようにすることができる。   By configuring in this way, it is possible to realize simultaneous operation by hand and foot, and furthermore, it is possible to perform the same user interface operation on the display device 3 for the hand and foot.

図13はレイアウトテーブルT1の例を示す図である。   FIG. 13 is a diagram showing an example of the layout table T1.

図13(a)はレイアウトテーブルT1の例を示しており、(b)は足入力装置2のセンサWの配列、(c)は各センサW間の状態遷移を示している。   FIG. 13A shows an example of the layout table T1, FIG. 13B shows an array of sensors W of the foot input device 2, and FIG. 13C shows state transitions between the sensors W.

(b)に示すように床面上にマトリクス状に配置した足入力装置2のセンサWにそれぞれ0〜5のように付番すると、状態遷移としては(c)に示すようにそれぞれ近接するセンサWに移動することができる。このときの状態遷移の条件としては、それぞれのセンサWにおいて、規定の荷重の値Pを越えた場合に遷移するものとする。   When the sensors W of the foot input device 2 arranged in a matrix form on the floor as shown in (b) are numbered as 0 to 5, respectively, the state transitions are sensors adjacent to each other as shown in (c). You can move to W. As a condition for the state transition at this time, it is assumed that each sensor W transitions when a specified load value P is exceeded.

レイアウトテーブルT1では、(a)に示すように、これらの現在利用者Uが選択しているセンサWと、次に遷移し得るセンサWの候補とを対応付けて保持している。   In the layout table T1, as shown in (a), the sensor W currently selected by the user U and the candidate of the sensor W that can be changed next are stored in association with each other.

図14は状態遷移テーブルT2の例を示す図である。   FIG. 14 is a diagram illustrating an example of the state transition table T2.

図14(a)は状態遷移テーブルT2の例を示しており、(b)は対応する機能ツリーの例を示している。   FIG. 14A shows an example of the state transition table T2, and FIG. 14B shows an example of a corresponding function tree.

例えば、複写機の機能を例にとった場合、(b)に示すように、複写をする機能を選択したS0の初期状態「コピースタート」を始めとする機能のツリーとして表すことができる。それぞれの機能について0〜9のように付番すると、状態遷移テーブルT2では、(a)に示すように、それぞれの状態から次に進める状態についての状態遷移の候補を対応付けて保持している。   For example, when the function of the copying machine is taken as an example, it can be expressed as a tree of functions including the initial state “copy start” of S0 in which the function to copy is selected, as shown in FIG. If each function is numbered as 0 to 9 in the state transition table T2, as shown in (a), state transition candidates for the states to be advanced from the respective states are associated with each other and held. .

図15は機能テーブルT3の例を示す図である。   FIG. 15 is a diagram illustrating an example of the function table T3.

図15において、機能テーブルT3では、図14(b)で説明したような機能の状態について、それぞれの付番と機能名と条件とコマンドとを対応付けて保持している。例えば、S4については、機能名は「+1」、条件としてはクリックされたときにコマンドを実行し、そのコマンドは「部数を一つ増やす」といったような形で、コマンドが存在する機能について機能テーブルT3に記録してある。   In FIG. 15, in the function table T3, the numbering, the function name, the condition, and the command are stored in association with each other for the function states as described in FIG. For example, for S4, the function name is “+1”, the command is executed as a condition when clicked, and the command is “increase the number of copies”. Recorded at T3.

図16は本発明のユーザインタフェース装置の全体的な処理例を示すフローチャートである。なお、ここで挙げられている各定義済の処理の詳細については後述する。   FIG. 16 is a flowchart showing an overall processing example of the user interface apparatus of the present invention. Details of each defined process listed here will be described later.

図16において、機器1が利用者によって利用可能なように機器1を設置・起動することで機器1における操作処理を開始すると(ステップS101)、まずタイマによる割り込み処理の初期化を実行し、変数Fに0を代入する(ステップS102)。   In FIG. 16, when the operation process in the device 1 is started by installing and starting the device 1 so that the device 1 can be used by the user (step S101), first, initialization of interrupt processing by a timer is executed, and the variable 0 is substituted for F (step S102).

次いで、タイマの割り込みを開始する(ステップS103)。タイマ処理により特定の足入力装置2上での利用者の動きの変化(重さの変化)を計測する。   Next, timer interruption is started (step S103). The change (weight change) of the movement of the user on the specific foot input device 2 is measured by the timer process.

次いで、初期状態処理(ステップS104)、センサ識別処理(ステップS105)、レイアウト表示処理(ステップS106)、コマンド実行処理(ステップS107)を順次実行する。   Next, initial state processing (step S104), sensor identification processing (step S105), layout display processing (step S106), and command execution processing (step S107) are sequentially executed.

そして、変数Fの値がタイマ処理によって「1」に更新されたかどうかを判断し(ステップS108)、Fが「1」でない場合はセンサ識別処理(ステップS105)にまで戻って処理を繰り返し、Fが「1」の場合はタイマの割り込みを終了し(ステップS109)、全処理を終了する(ステップS110)。   Then, it is determined whether or not the value of the variable F has been updated to “1” by the timer process (step S108). If F is not “1”, the process returns to the sensor identification process (step S105) and the process is repeated. When “1” is “1”, the interruption of the timer is terminated (step S109), and all the processes are terminated (step S110).

図17は初期状態処理(図16のステップ104)の例を示すフローチャートである。図16のタイマでは足入力装置2に一定時間とどまっているかどうか、図17では、実際に利用者が足入力装置2に乗るという行為を行うときの処理である。   FIG. 17 is a flowchart showing an example of the initial state process (step 104 in FIG. 16). In the timer of FIG. 16, whether or not the foot input device 2 stays for a certain period of time, FIG. 17 shows processing when the user actually takes the foot input device 2.

図17おいて、処理を開始すると(ステップS201)、まず、選択している状態遷移テーブルT2のオブジェクトjをSjと表すとして、SjにS0、すなわち状態遷移テーブルT2の一番先頭のオブジェクトを選択状態としておく(ステップS202)。   In FIG. 17, when the processing is started (step S201), first, the object j of the selected state transition table T2 is represented as Sj, and S0 is selected as Sj, that is, the first object in the state transition table T2 is selected. The state is set (step S202).

次いで、足入力装置2のいずれかのセンサWで足入力が検知されたかどうかを判断し(ステップS203)、検出されない場合は検出処理を繰り返す。   Next, it is determined whether or not a foot input is detected by any of the sensors W of the foot input device 2 (step S203). If not detected, the detection process is repeated.

そして、足入力が検出された場合は、初期状態処理を終了する(ステップS204)。   If a foot input is detected, the initial state process is terminated (step S204).

図18はセンサ識別処理(図16のステップ105)の例を示すフローチャートである。この処理は直前の初期状態処理の後に、利用者が実際にどの特定の足入力装置2を操作しているのかを検出する処理である。   FIG. 18 is a flowchart showing an example of the sensor identification process (step 105 in FIG. 16). This process is a process of detecting which specific foot input device 2 the user is actually operating after the immediately preceding initial state process.

図18おいて、処理を開始すると(ステップS301)、まず初期化として変数iに0を代入する(ステップS302)。   In FIG. 18, when the process is started (step S301), first, 0 is substituted for variable i as initialization (step S302).

次いで、足入力装置2の番号iについてのセンサWをWiと表すと、Wiに荷重がかかったかどうかを判断する(ステップS303)。   Next, when the sensor W for the number i of the foot input device 2 is represented as Wi, it is determined whether or not a load is applied to Wi (step S303).

かかっていない場合は、i=i+1とし(ステップS304)、iが全センサ数MAXを越えるかどうか判断し(ステップS305)、越えていない場合はWiに荷重がかかったかどうかの判断(ステップS303)に戻る。越えた場合は変数iの初期化(ステップS302)に戻る。   If not, i = i + 1 is set (step S304), and it is determined whether i exceeds the total number of sensors MAX (step S305). Return to. If exceeded, the process returns to initialization of the variable i (step S302).

Wiで体重変化が検出された場合、その体重の値をGiとするとして、そのGiが規定の値Pを越えたかどうか判断する(ステップS306)。Pは例えば30kgとする。   When a change in body weight is detected in Wi, the weight value is assumed to be Gi, and it is determined whether the Gi exceeds a specified value P (step S306). P is, for example, 30 kg.

越えていない場合は、順次i=i+1として検出を繰り返す(ステップS304、S305)。   If not, the detection is repeated with i = i + 1 sequentially (steps S304 and S305).

越えた場合にはWiを利用者Uがクリック操作あるいはダブルクリック操作をしたものとして判断し、利用者Uは表示装置3上のオブジェクトとしてWiに対応する位置にあるオブジェクトを選択したものとし(ステップS307)、処理を終了する(ステップS308)。   If it exceeds, it is determined that Wi has been clicked or double-clicked by user U, and user U has selected an object at a position corresponding to Wi as an object on display device 3 (step In step S307, the process ends (step S308).

図19はレイアウト表示処理(図16のステップ106)の例を示すフローチャートである。これは図18の処理によって検出した特定の足入力装置2に対応した表示状態を更新する処理である。   FIG. 19 is a flowchart showing an example of the layout display process (step 106 in FIG. 16). This is a process of updating the display state corresponding to the specific foot input device 2 detected by the process of FIG.

図19において、処理を開始すると(ステップS401)、利用者UがセンサWi上にいるとして、表示装置3上の対応する位置にあるオブジェクトに現在の状態であるSjを表示する(ステップS402)。現在の状態Sjを表示したオブジェクトは画面の中央になるように表示する。   In FIG. 19, when the process is started (step S401), it is assumed that the user U is on the sensor Wi, and the current state Sj is displayed on the object at the corresponding position on the display device 3 (step S402). The object displaying the current state Sj is displayed so as to be in the center of the screen.

次いで、レイアウトテーブルT1を参照し、現在のWiに対応する次候補を検索し、Wiの次候補があればそのリストを取得する(ステップS403〜S405)。次候補がない場合は処理を終了する(ステップS410)。   Next, referring to the layout table T1, the next candidate corresponding to the current Wi is searched, and if there is a next candidate for Wi, a list thereof is acquired (steps S403 to S405). If there is no next candidate, the process ends (step S410).

次いで、状態遷移テーブルT2を参照し、現在のSjに対応する次候補を検索し、次候補があればそのリストを取得する(ステップS406〜S408)。次候補がない場合は処理を終了する(ステップS410)。   Next, with reference to the state transition table T2, the next candidate corresponding to the current Sj is searched, and if there is a next candidate, the list is acquired (steps S406 to S408). If there is no next candidate, the process ends (step S410).

次いで、Wiの次候補リストにSjの次候補リストを順次表示していく(ステップS409)。このとき状態遷移について図14(b)の機能ツリーに示したように、上位にある機能については、表示として更新されないように優先して表示するものとする。   Next, the next candidate list of Sj is sequentially displayed in the next candidate list of Wi (step S409). At this time, as shown in the function tree of FIG. 14B, the state transition is preferentially displayed so that the upper functions are not updated as a display.

図20は上述したレイアウト表示処理における足入力装置2のセンサWと状態Sの関係付けの例を示す図である。   FIG. 20 is a diagram illustrating an example of the relationship between the sensor W and the state S of the foot input device 2 in the layout display process described above.

図20(a)(b)(c)では、図14(b)に示した機能ツリーの状態Sを足入力装置2の各センサWのマトリクス上に示してある。   20A, 20 </ b> B, and 20 </ b> C, the state S of the function tree shown in FIG. 14B is shown on the matrix of each sensor W of the foot input device 2.

例えば、図20(a)に示すように、利用者UがセンサW0上から操作を開始したとすると、そこに状態S0の機能である「コピースタート」を割り当てる。   For example, as shown in FIG. 20A, if the user U starts an operation from the sensor W0, “copy start” which is a function of the state S0 is assigned thereto.

この状態で、利用者Uが状態S1の機能である「部数」選択をするときは、利用者UはセンサW1に移動する。すると(b)に示すように、利用者UはセンサW1上におり、機能としてはS1を選択していることから、次に選択できる候補として、図14(b)に示した機能ツリーのS4、S5や前の状態であるS0を選択できるよう、センサW2、W4、W0にそれぞれS4、S5、S0といったように、センサW1の周囲に機能を割り当てて行く。   In this state, when the user U selects “number of copies” which is a function of the state S1, the user U moves to the sensor W1. Then, as shown in (b), since the user U is on the sensor W1 and selects S1 as a function, S4 in the function tree shown in FIG. In order to select S5 and S0 which is the previous state, functions are assigned to the surroundings of the sensor W1, such as S4, S5 and S0, to the sensors W2, W4 and W0, respectively.

このほか、図20(c)に示すように、S1と直接状態遷移しないようなS2やS3といった機能についても、機能的に矛盾しないものについては空いているセンサ、例えばセンサW3やセンサW5などに割り当てておいて、機能ツリーをさかのぼらなくても他の機能を選べるようにしてもよい。このようにすることで、例えば利用者UがS4の状態を選択している場合も、S4→S1→S0のように状態をさかのぼらなくても、S2の状態を直接に選択するといったことができるようになり、利便性が向上する。   In addition, as shown in FIG. 20 (c), for functions such as S2 and S3 that do not change state directly with S1, those that are not functionally inconsistent are assigned to vacant sensors such as sensor W3 and sensor W5. It is also possible to assign other functions without going back up the function tree. By doing so, for example, even when the user U selects the state of S4, the state of S2 is directly selected without going back to the state of S4 → S1 → S0. It becomes possible to improve convenience.

図21に補足的に図20(a)と図20(b)の様子を機能ツリーの頭上にセンサの番号を割り付けた様子を示す。図21(a)はちょうど図20(a)の状態を示しており、図21(b)は図20(b)の様子を示している。このように状態が遷移して行くにしたがって、次に選択できる(遷移できる)状態の機能を利用者Uが現在立っているセンサWの位置の周囲に順次割り付けていく。   FIG. 21 supplementarily shows the state of FIG. 20A and FIG. 20B in which the sensor number is assigned above the head of the function tree. FIG. 21A shows the state of FIG. 20A, and FIG. 21B shows the state of FIG. As the state transitions in this way, the function of the state that can be selected (transitioned) next is sequentially assigned around the position of the sensor W where the user U is currently standing.

図22はコマンド実行処理(図16のステップ107)の例を示す図である。   FIG. 22 is a diagram showing an example of command execution processing (step 107 in FIG. 16).

図22において、処理を開始すると(ステップS501)、現在利用者Uが選択している機能Sjについて、それが機能テーブルT3にあるWiのクリックやダブルクリックといった条件を満たすか否か判断する(ステップS502)。   In FIG. 22, when the process is started (step S501), it is determined whether or not the function Sj currently selected by the user U satisfies a condition such as a click or double click of Wi in the function table T3 (step S501). S502).

条件を満たした場合、それに対応するコマンドSjを実行し(ステップS503)、処理を終了する(ステップS504)。   If the condition is met, the command Sj corresponding to the condition is executed (step S503), and the process is terminated (step S504).

複写機の場合、例えばSjがS0である場合に、ダブルクリック操作が行われると、コマンド「コピーの実行」を実行する。コピーを実行するとは、出力部18(図12)を通じて、複写機にコピー実行の制御情報を送出することである。複写機などの本発明の構成外の機器のハードウェア制御方法については、公知の技術を用いることができるため、ここでは詳細な説明を省略する。   In the case of a copying machine, for example, when Sj is S0, if a double-click operation is performed, the command “execute copy” is executed. Executing the copy means sending the copy execution control information to the copying machine through the output unit 18 (FIG. 12). Since a well-known technique can be used for a hardware control method for devices other than the configuration of the present invention such as a copying machine, detailed description thereof is omitted here.

図23はタイマ割り込み処理の例を示すフローチャートである。このタイマ割り込み処理は、これまで説明した処理の流れと並行した処理として実行する。   FIG. 23 is a flowchart showing an example of timer interrupt processing. This timer interrupt process is executed as a process in parallel with the process flow described so far.

図23において、処理を開始すると(ステップS601)、割り込みした回数をチェックし(ステップS602)、規定値を越えるかどうか判断する(ステップS603)。   In FIG. 23, when the process is started (step S601), the number of interrupts is checked (step S602), and it is determined whether the specified value is exceeded (step S603).

規定値を越えない場合には、割り込み回数をインクリメントし(ステップS604)、F=0を代入し(ステップS605)、待機状態に戻る(ステップS607)。   If the specified value is not exceeded, the interrupt count is incremented (step S604), F = 0 is substituted (step S605), and the process returns to the standby state (step S607).

また、規定値を越えた場合には、F=1を代入し(ステップS606)、待機状態に戻る(ステップS607)。   If the specified value is exceeded, F = 1 is substituted (step S606), and the process returns to the standby state (step S607).

この場合、タイマは例えば1秒ごとにイベントを発生するものとすると、規定値=3などとしておく。   In this case, if the timer generates an event every second, for example, the specified value = 3 is set.

図24は複写機の機能を反映した動作例を示す図である。   FIG. 24 is a diagram showing an operation example reflecting the function of the copying machine.

例えば、図24(a)のように利用者Uが最初に足入力装置2のセンサW0に載ると、表示装置3上には初期状態の画面を表示する。表示装置3の上部には現在選択されている複写機のパラメータ類をメニューとして表示する。   For example, as shown in FIG. 24A, when the user U first places on the sensor W0 of the foot input device 2, an initial screen is displayed on the display device 3. On the upper part of the display device 3, the parameters of the currently selected copier are displayed as a menu.

利用者UがセンサW1に移動すると、ちょうど表示装置3上でオブジェクト「コピースタート」という状態からオブジェクト「部数」という状態を選択したことに相当するクリック操作を実行する。表示装置3上では、図24(b)に示すようにオブジェクト「部数」を表示装置3上の中央に移動したように表示し、さらに「部数」を操作する状態になったことを利用者Uに告げるために、表示装置3上部の「部数:」という表示部分の表示を更新する。このとき、選択したオブジェクトと関連のあるオブジェクトと関連のないオブジェクトでは、視覚的に見分けがつくように表示する。   When the user U moves to the sensor W1, a click operation corresponding to selecting the state of the object “number of copies” from the state of the object “copy start” on the display device 3 is executed. On the display device 3, as shown in FIG. 24B, the object “number of copies” is displayed as if it has been moved to the center on the display device 3, and the user U is in a state of operating the “number of copies”. The display of the display part “Number of copies:” at the top of the display device 3 is updated. At this time, an object not related to the object related to the selected object is displayed so that it can be visually distinguished.

次に、利用者UがセンサW1からセンサW2に移動すると、表示装置3上ではオブジェクト「+1」を選択したことになる(図24(c))。ここで、表示装置3上では、ちょうど状態が遷移してきた「部数」を「+1」する、つまり部数を1部から2部に増やす操作を実行し、表示装置3上部の表示も「部数:2部」に表示を更新する。   Next, when the user U moves from the sensor W1 to the sensor W2, the object “+1” is selected on the display device 3 (FIG. 24C). Here, on the display device 3, “+1” is added to the “number of copies” whose state has just changed, that is, an operation of increasing the number of copies from 1 to 2 is performed, and the display on the upper portion of the display device 3 is also displayed as “number of copies: 2 The display is updated to "Part".

次に、利用者UがセンサW2からセンサW4に移動すると、表示装置上では、オブジェクト「色」が表示装置3上の中央に表示されるように表示状態が変わる(図25(a))。ここで、これまで「部数」のための操作であったものが「色」操作に変更し、表示装置3上部の「部数:」から「色:」の表示状態を更新する。   Next, when the user U moves from the sensor W2 to the sensor W4, the display state changes so that the object “color” is displayed at the center of the display device 3 on the display device (FIG. 25A). Here, what has been the operation for “number of copies” is changed to “color” operation, and the display state of “color:” is updated from “number of copies:” at the top of the display device 3.

次に、利用者UがセンサW4からセンサW3に移動すると、表示装置3上でも「カラー」が中央にくるように表示を更新する(図25(b))。ここで、表示装置3上では、ちょうど状態が遷移してきた「色」を「カラー」にする、つまり色をモノクロからカラーに変更する操作を実行する。表示装置3上部の表示でもその更新が分かるように「色:カラー」に更新する。   Next, when the user U moves from the sensor W4 to the sensor W3, the display is updated so that the “color” is also in the center on the display device 3 (FIG. 25B). Here, on the display device 3, an operation of changing the “color” whose state has just changed to “color”, that is, changing the color from monochrome to color is executed. The display device 3 is updated to “color” so that the update can be seen also in the display on the upper part of the display device 3.

次に、利用者UがセンサW3からセンサW0に移動すると、最初にいたオブジェクト「コピースタート」の位置に戻る(図25(c))。ここで、利用者Uがダブルクリック操作、すなわち、センサW0上で飛び跳ねるような動作をすると、「コピースタート」つまり、複写機の複写を実行する。このときこれまでの操作で選択した「部数:2部」「色:カラー」という複写機のパラメータが選択された状態で複写を実行する。   Next, when the user U moves from the sensor W3 to the sensor W0, the user U returns to the position of the first object “copy start” (FIG. 25C). Here, when the user U performs a double-click operation, that is, an operation that jumps on the sensor W0, “copy start”, that is, copying of the copying machine is executed. At this time, the copying is executed in a state where the parameters of the copying machine “number of copies: 2” and “color: color” selected in the previous operations are selected.

図26は表示しきれない複数候補がある場合の表示の例を示す図である。すなわち、状態遷移テーブルT2において遷移し得る候補がレイアウト上のオブジェクト数を越えている場合の処理の例を示す。   FIG. 26 is a diagram showing an example of display when there are a plurality of candidates that cannot be displayed. That is, an example of processing in the case where the number of candidates that can change in the state transition table T2 exceeds the number of objects on the layout is shown.

例えば、Dの先に、D,E,F,Gのように多数の遷移の候補がある場合を想定する。   For example, it is assumed that there are many transition candidates such as D, E, F, and G before D.

このような場合では、状態1で「D〜」のように複数の候補があることを表示装置3上に表示する。   In such a case, it is displayed on the display device 3 that there are a plurality of candidates such as “D˜” in the state 1.

そして、利用者Uが「D〜」を選択した場合、状態2(a)として、移動候補「D」を中央に表示し、その他の移動候補を周囲に表示するようにし、「D」のコマンドを実行する場合にはダブルクリックを行うようにする。あるいは、状態2(b)のように、D,E,F,Gを周囲に表示し、クリック操作として遷移した場合にそれぞれのコマンドを実行するようにする。   When the user U selects “D˜”, as the state 2 (a), the movement candidate “D” is displayed in the center, and other movement candidates are displayed in the surroundings. When executing, double-click. Alternatively, as in state 2 (b), D, E, F, and G are displayed in the surroundings, and each command is executed when transition is made as a click operation.

図27は手入力と足入力を併用した場合の動作の例を示す図である。   FIG. 27 is a diagram showing an example of the operation when hand input and foot input are used together.

表示装置3上に表示したオブジェクトは、上述したように足入力装置2によるほか、手入力装置4を通じて操作してもよい。この場合、利用者Uは足入力装置2の所定の位置にいたままでよく、この状態で手によって手入力装置4を通じて表示装置3のオブジェクトを選択する。   The object displayed on the display device 3 may be operated through the hand input device 4 in addition to the foot input device 2 as described above. In this case, the user U may remain at a predetermined position of the foot input device 2, and in this state, the user U selects an object of the display device 3 through the manual input device 4.

この場合、例えば、(a)に示すように、Aの状態から隣のBというオブジェクトを選択すると表示装置3上では、(b)に示すようにBが中央になるように表示を更新する。利用者Uはちょうど、足入力装置2の左上端にあるセンサに位置していることから、表示装置3上では、Bよりも左側に遷移すべきオブジェクトは表示できない。この場合、機能ツリーの上位にある状態遷移先を優先して画面上に残すように表示する。   In this case, for example, as shown in (a), when the adjacent object B is selected from the state of A, the display is updated on the display device 3 so that B becomes the center as shown in (b). Since the user U is located at the sensor at the upper left end of the foot input device 2, the object that should transition to the left side of B cannot be displayed on the display device 3. In this case, the state transition destination that is higher in the function tree is preferentially displayed on the screen.

これにより、状態遷移をひとつ前の状態に戻すこともできるように表示できるし、メニュー系列の状態遷移を操作し、足入力装置2のセンサを渡り歩くと、メニューも状態遷移にしたがって動的に変化し、かつ、タッチパネル装置などの手入力装置4と組み合わせて、同時に手でもメニューを操作して状態遷移を操作することができる。   As a result, the state transition can be displayed so that it can be returned to the previous state, and the menu changes dynamically according to the state transition when the state transition of the menu sequence is operated and the sensor of the foot input device 2 is walked. In addition, in combination with the manual input device 4 such as a touch panel device, the state transition can be operated by operating the menu with the hand at the same time.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.

本発明のユーザインタフェース装置を複写機に適用した一実施形態の外観例を示す図である。1 is a diagram illustrating an external appearance example of an embodiment in which a user interface device of the present invention is applied to a copying machine. 本発明のユーザインタフェース装置を他の機器に適用した外観例を示す図である。It is a figure which shows the example of an external appearance which applied the user interface apparatus of this invention to other apparatuses. 足入力装置、表示装置および手入力装置の例を示す図である。It is a figure which shows the example of a foot input device, a display apparatus, and a manual input device. 足入力装置を構成するセンサの動作例を示す図である。It is a figure which shows the operation example of the sensor which comprises a leg | foot input apparatus. 荷重変化によりクリックを検出する様子を示す図である。It is a figure which shows a mode that a click is detected by a load change. 荷重変化によりダブルクリックを検出する様子を示す図である。It is a figure which shows a mode that a double click is detected by a load change. 足入力装置を構成するセンサの他の構成例を示す図である。It is a figure which shows the other structural example of the sensor which comprises a leg | foot input apparatus. 足入力装置のセンサのマトリクス構成の例を示す図である。It is a figure which shows the example of the matrix structure of the sensor of a foot input device. 足入力装置の他の認識方法の例を示す図(その1)である。It is FIG. (1) which shows the example of the other recognition method of a foot input device. 足入力装置の他の認識方法の例を示す図(その2)である。It is FIG. (2) which shows the example of the other recognition method of a foot input device. 足入力装置の付加機能の例を示す図である。It is a figure which shows the example of the additional function of a foot input device. 本発明のユーザインタフェース装置の機能ブロックの例を示す図である。It is a figure which shows the example of the functional block of the user interface apparatus of this invention. レイアウトテーブルの例を示す図である。It is a figure which shows the example of a layout table. 状態遷移テーブルの例を示す図である。It is a figure which shows the example of a state transition table. 機能テーブルの例を示す図である。It is a figure which shows the example of a function table. 本発明のユーザインタフェース装置の全体的な処理例を示すフローチャートである。It is a flowchart which shows the example of a whole process of the user interface apparatus of this invention. 初期状態処理の例を示すフローチャートである。It is a flowchart which shows the example of an initial state process. センサ識別処理の例を示すフローチャートである。It is a flowchart which shows the example of a sensor identification process. レイアウト表示処理の例を示すフローチャートである。It is a flowchart which shows the example of a layout display process. 足入力装置のセンサと状態の関係付けの例を示す図(その1)である。It is FIG. (The 1) which shows the example of correlation with the sensor of a foot input device, and a state. 足入力装置のセンサと状態の関係の例を示す図(その2)である。It is FIG. (2) which shows the example of the relationship between the sensor of a leg input device, and a state. コマンド実行処理の例を示す図である。It is a figure which shows the example of a command execution process. タイマ割り込み処理の例を示すフローチャートである。It is a flowchart which shows the example of a timer interruption process. 複写機の機能を反映した動作例を示す図(その1)である。FIG. 6 is a diagram (part 1) illustrating an operation example reflecting the function of the copier. 複写機の機能を反映した動作例を示す図(その2)である。FIG. 10 is a second diagram illustrating an operation example reflecting the function of the copier. 表示しきれない複数候補がある場合の表示の例を示す図である。It is a figure which shows the example of a display when there exist several candidates which cannot be displayed. 手入力と足入力を併用した場合の動作の例を示す図である。It is a figure which shows the example of operation | movement at the time of using hand input and foot input together.

符号の説明Explanation of symbols

1 機器
2 足入力装置
3 表示装置
4 手入力装置
5 発光・受光装置
6 カメラ
7 超音波送受信装置
11 第一入力部
12 第二入力部
13 入力判定部
14 タイマ部
15 記憶部
16 状態遷移更新部
17 表示部
18 出力部
T1 レイアウトテーブル
T2 状態遷移テーブル
T3 機能テーブル
W センサ
U 利用者
DESCRIPTION OF SYMBOLS 1 Apparatus 2 Foot input device 3 Display apparatus 4 Hand input device 5 Light emission and light-receiving device 6 Camera 7 Ultrasonic transmitter / receiver 11 First input part 12 Second input part 13 Input determination part 14 Timer part 15 Storage part 16 State transition update part 17 Display unit 18 Output unit T1 Layout table T2 State transition table T3 Function table W Sensor U User

Claims (10)

利用者の立ち位置を検出する第一の入力手段と、
利用者の手や指による操作を検出する第二の入力手段と、
上記第一の入力手段および第二の入力手段の検出した位置や入力状態を判定する入力判定手段と、
時間的な待受け処理を実行するタイマ手段と、
上記第一の入力手段の入力可能な各位置の配置を記憶するレイアウトテーブル、状態遷移のデータを記憶する状態遷移テーブル、および、遷移した状態でのコマンドを記憶する機能テーブルを保持する記憶手段と、
上記入力判定手段の処理に基づき上記記憶手段からデータを読みだして状態遷移を更新する状態遷移更新手段と、
この状態遷移更新手段の更新結果を表示装置に表示する表示手段と、
上記入力判定手段の処理において上記状態遷移テーブルおよび機能テーブルのデータが所定の条件を満たしたときに上記機能テーブルのコマンドを実行する出力手段とを備えたことを特徴とするユーザインタフェース装置。
A first input means for detecting a user's standing position;
A second input means for detecting a user's hand or finger operation;
Input determining means for determining the position and input state detected by the first input means and the second input means;
A timer means for executing a temporal standby process;
Storage means for holding a layout table for storing the arrangement of each position that can be input by the first input means, a state transition table for storing state transition data, and a function table for storing commands in the transitioned state; ,
A state transition update unit that reads data from the storage unit based on the processing of the input determination unit and updates the state transition;
Display means for displaying the update result of the state transition update means on the display device;
A user interface apparatus comprising: output means for executing a command of the function table when data of the state transition table and the function table satisfy a predetermined condition in the processing of the input determination means.
請求項1に記載のユーザインタフェース装置において、
上記第一の入力手段は、時間間隔を測定する計時手段を有し、
所定の時間以内に規定値以上の値を上回る回数によってクリックやダブルクリックといった入力状態を検知することを特徴とするユーザインタフェース装置。
The user interface device according to claim 1,
The first input means has time measuring means for measuring a time interval,
A user interface device that detects an input state such as a click or a double click by a number of times exceeding a specified value within a predetermined time.
請求項1に記載のユーザインタフェース装置において、
上記第一の入力手段は、利用者の位置と体重移動を測定するマトリクス状の体重計や圧力センサから構成されることを特徴とするユーザインタフェース装置。
The user interface device according to claim 1,
The user interface device according to claim 1, wherein the first input means comprises a matrix scale and a pressure sensor for measuring a user's position and weight shift.
請求項1に記載のユーザインタフェース装置において、
上記表示手段は、上記第一の入力手段もしくは第二の入力手段による操作に応じて、選択対象が上記表示装置の中央に表示するように表示物を移動することを特徴とするユーザインタフェース装置。
The user interface device according to claim 1,
The user interface device, wherein the display means moves a display object so that a selection target is displayed in the center of the display device in response to an operation by the first input means or the second input means.
請求項1に記載のユーザインタフェース装置において、
上記表示手段は、上記状態遷移テーブルの機能間の関連があるものを関連ないものに比較して大きくしたり色を変えたりといった強調表示を行うことを特徴とするユーザインタフェース装置。
The user interface device according to claim 1,
The user interface device according to claim 1, wherein the display means performs highlighting such that a relationship between functions of the state transition table is increased or a color is changed as compared with an unrelated one.
利用者の立ち位置を検出する第一の入力工程と、
利用者の手や指による操作を検出する第二の入力工程と、
上記第一の入力工程および第二の入力工程の検出した位置や入力状態を判定する入力判定工程と、
時間的な待受け処理を実行するタイマ工程と、
上記第一の入力工程の入力可能な各位置の配置を記憶するレイアウトテーブル、状態遷移のデータを記憶する状態遷移テーブル、および、遷移した状態でのコマンドを記憶する機能テーブルを保持する記憶手段と、
上記入力判定工程の処理に基づき上記記憶手段からデータを読みだして状態遷移を更新する状態遷移更新工程と、
この状態遷移更新工程の更新結果を表示装置に表示する表示工程と、
上記入力判定工程の処理において上記状態遷移テーブルおよび機能テーブルのデータが所定の条件を満たしたときに上記機能テーブルのコマンドを実行する出力工程とを備えたことを特徴とするユーザインタフェース方法。
A first input step for detecting the user's standing position;
A second input process for detecting an operation by a user's hand or finger;
An input determination step of determining the detected position and input state of the first input step and the second input step;
A timer process for executing a time standby process;
A storage means for holding a layout table for storing the arrangement of each position that can be input in the first input step, a state transition table for storing state transition data, and a function table for storing commands in the transitioned state; ,
A state transition update step of reading data from the storage means based on the processing of the input determination step and updating the state transition;
A display process for displaying the update result of the state transition update process on a display device;
A user interface method comprising: an output step of executing a command of the function table when data of the state transition table and the function table satisfy a predetermined condition in the processing of the input determination step.
請求項6に記載のユーザインタフェース方法において、
上記第一の入力工程は、時間間隔を測定する計時工程を有し、
所定の時間以内に規定値以上の値を上回る回数によってクリックやダブルクリックといった入力状態を検知することを特徴とするユーザインタフェース方法。
The user interface method according to claim 6, wherein
The first input step has a timing step for measuring a time interval,
A user interface method, wherein an input state such as a click or a double click is detected by a number of times exceeding a specified value within a predetermined time.
請求項6に記載のユーザインタフェース方法において、
上記第一の入力工程は、利用者の位置と体重移動を測定するマトリクス状の体重計や圧力センサから信号を入力することを特徴とするユーザインタフェース方法。
The user interface method according to claim 6, wherein
The user interface method according to claim 1, wherein the first input step inputs a signal from a matrix weight scale or a pressure sensor that measures the position and weight shift of the user.
請求項6に記載のユーザインタフェース方法において、
上記表示工程は、上記第一の入力工程もしくは第二の入力工程による操作に応じて、選択対象が上記表示装置の中央に表示するように表示物を移動することを特徴とするユーザインタフェース方法。
The user interface method according to claim 6, wherein
In the user interface method, the display step moves the display object so that the selection target is displayed in the center of the display device according to the operation in the first input step or the second input step.
請求項6に記載のユーザインタフェース方法において、
上記表示工程は、上記状態遷移テーブルの機能間の関連があるものを関連ないものに比較して大きくしたり色を変えたりといった強調表示を行うことを特徴とするユーザインタフェース方法。
The user interface method according to claim 6, wherein
The user interface method according to claim 1, wherein the display step performs highlighting such that the relationship between the functions of the state transition table is made larger or the color is changed as compared with those not related.
JP2006187994A 2006-07-07 2006-07-07 User interface device and user interface method Pending JP2008015887A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006187994A JP2008015887A (en) 2006-07-07 2006-07-07 User interface device and user interface method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006187994A JP2008015887A (en) 2006-07-07 2006-07-07 User interface device and user interface method

Publications (1)

Publication Number Publication Date
JP2008015887A true JP2008015887A (en) 2008-01-24

Family

ID=39072818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006187994A Pending JP2008015887A (en) 2006-07-07 2006-07-07 User interface device and user interface method

Country Status (1)

Country Link
JP (1) JP2008015887A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211379A (en) * 2009-03-09 2010-09-24 Nintendo Co Ltd Information processing program and information processing apparatus
JP2010259611A (en) * 2009-05-07 2010-11-18 Nintendo Co Ltd Information processing program and information processor
JP2016049252A (en) * 2014-08-29 2016-04-11 大日本印刷株式会社 Game device
JP2016174699A (en) * 2015-03-19 2016-10-06 大日本印刷株式会社 Game controller

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211379A (en) * 2009-03-09 2010-09-24 Nintendo Co Ltd Information processing program and information processing apparatus
JP2010259611A (en) * 2009-05-07 2010-11-18 Nintendo Co Ltd Information processing program and information processor
US9833705B2 (en) 2009-05-07 2017-12-05 Nintendo Co., Ltd. Storage medium storing information processing program, information processing apparatus and information processing method
JP2016049252A (en) * 2014-08-29 2016-04-11 大日本印刷株式会社 Game device
JP2016174699A (en) * 2015-03-19 2016-10-06 大日本印刷株式会社 Game controller

Similar Documents

Publication Publication Date Title
EP2701044B1 (en) Information processing device, information processing method, and computer-readable recording medium which records program
JP3847641B2 (en) Information processing apparatus, information processing program, computer-readable recording medium storing information processing program, and information processing method
JP5730667B2 (en) Method for dual-screen user gesture and dual-screen device
KR101323281B1 (en) Input device and method for inputting character
CN103164112B (en) Use the user terminal display control unit and method based on user of grip sensor
US8334837B2 (en) Method for displaying approached interaction areas
JP4769552B2 (en) Terminal and terminal control program
US9207806B2 (en) Creating a virtual mouse input device
JP5148700B2 (en) Input detection device, input detection method, program, and recording medium
US20110102336A1 (en) User interface apparatus and method
CN108733303B (en) Touch input method and apparatus of portable terminal
TW201145146A (en) Handling tactile inputs
JP2013131087A (en) Display device
CN101263448A (en) Activating virtual keys of a touch-screen virtual keyboard
JP2011053831A (en) Information processing device, information processing method, and program
KR101019254B1 (en) apparatus having function of space projection and space touch and the controlling method thereof
JP2007148927A (en) Input device and scrolling control method using the same
CN104243749B (en) The control method of image processing system and image processing system
KR102205283B1 (en) Electro device executing at least one application and method for controlling thereof
KR20120064756A (en) Method and apparatus for displaying screen of mobile terminal comprising touch screen
JP2008015887A (en) User interface device and user interface method
JP2007188233A (en) Touch panel input device
JP2008009856A (en) Input device
JP2015525927A (en) Method and apparatus for controlling a display device
JP2011216065A (en) Input device, control circuit, electronic system and operation method