JP2006018856A - User interface device and operating range presenting method - Google Patents

User interface device and operating range presenting method Download PDF

Info

Publication number
JP2006018856A
JP2006018856A JP2005268978A JP2005268978A JP2006018856A JP 2006018856 A JP2006018856 A JP 2006018856A JP 2005268978 A JP2005268978 A JP 2005268978A JP 2005268978 A JP2005268978 A JP 2005268978A JP 2006018856 A JP2006018856 A JP 2006018856A
Authority
JP
Japan
Prior art keywords
image
input
information
user
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005268978A
Other languages
Japanese (ja)
Inventor
Miwako Doi
美和子 土井
Akira Morishita
明 森下
Naoko Umeki
直子 梅木
Shunichi Numazaki
俊一 沼崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005268978A priority Critical patent/JP2006018856A/en
Publication of JP2006018856A publication Critical patent/JP2006018856A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a user interface device for performing input by image processing, which is easier to use to reduce the operation burden on a user, and an operation range presenting method. <P>SOLUTION: The user interface device for inputting by image processing is provided with a means for discriminating whether an object as an image processing object is within a proper range wherein image processing is possible or not and a means for presenting at least a part of prescribed visual information and auditory information in the case that it is discriminated that the object is not within the proper range. For example, a cursor is displayed small and/or thin when the object is far from the proper range, and the cursor is displayed large when the object is in the vicinity of the proper range, and the cursor is displayed with its left end distorted when the object is off to the left, and the cursor is displayed with its right end distorted when the object is off to the right. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理により入力を行なうユーザインタフェース装置及び画像処理の対象
物体に対する操作範囲呈示方法に関する。
The present invention relates to a user interface device that performs input through image processing and an operation range presentation method for a target object of image processing.

コンピュータの入力デバイスとして、マウスが圧倒的に使われている。しかし、マウス
で操作できることは、カーソルの移動と、メニューの選択などであり、あくまでも2次元
のポインティングデバイスとしての役目に過ぎない。マウスで扱えるのは、2次元の情報
であり、3次元空間の中の物体など奥行きがあるものを選択することは難しい。また、ア
ニメーションを作成する場合、キャラクタの動きをつけるのに、マウスのような入力デバ
イスでは、自然な動きをつけることが難しい。
The mouse is overwhelmingly used as a computer input device. However, what can be operated with the mouse is movement of the cursor, selection of a menu, and the like, and is merely a role as a two-dimensional pointing device. Two-dimensional information can be handled with a mouse, and it is difficult to select an object having a depth such as an object in a three-dimensional space. In addition, when creating an animation, it is difficult to apply a natural movement with an input device such as a mouse to add a movement of the character.

3次元空間でのポインティングの難点を補うために、ボールを所望の方向に押したり回
したりして6軸方向の情報を入力する装置や、いわゆるデータグローブやデータスーツ、
サイバーグローブといった手などにはめて使用する装置が開発されている。しかし、これ
ら装置は操作性の悪さ等のために、当初の期待程、普及していないのが現実である。
To compensate for the difficulty of pointing in a three-dimensional space, a device that inputs information in six axes by pushing or turning the ball in a desired direction, a so-called data glove or data suit,
Devices such as cyber glove have been developed for use in hands. However, these devices are not as popular as originally expected due to poor operability.

これに対し、最近、ユーザは特殊な装置を扱うことなく、手振りや身振りでユーザの意
図する情報を入力できる直接指示型の入力装置が開発されている。
例えば、光を照射し、ユーザの手による反射光を受光し、これを画像化して特徴量抽出
や形状認識処理を行ない、手の形状に応じた制御を実行したり、手の移動量に応じた分の
カーソル移動や3次元モデルにおける視点の変更を行なったりするものがある。
On the other hand, a direct instruction type input device has recently been developed in which a user can input information intended by the user by hand gesture or gesture without handling a special device.
For example, irradiate light, receive light reflected by the user's hand, image it, perform feature extraction and shape recognition processing, execute control according to the shape of the hand, or according to the amount of hand movement Some of them move the cursor as much as possible and change the viewpoint in the 3D model.

あるいは、ユーザの手の動きをビデオ撮影し、ビデオ映像を解析することにより、上記
と同様の処理を行なうものがある。
このような装置によって、ユーザは特殊な装置を装着などすることなく、簡易にジェス
チャで入力を行なうことができる。
Alternatively, there is one that performs a process similar to the above by taking a video of the movement of the user's hand and analyzing the video image.
With such a device, the user can easily input by gesture without wearing a special device.

しかし、この種の装置では、物体検出のための受光装置は固定的に設置されるため、ユ
ーザの手などを正常に検出可能な範囲が限定される。したがって、ユーザの手などの位置
によっては、その形状や動きを正確に検出することができず、ユーザが所望する制御等を
実現できない問題があった。また、ユーザは3次元空間中での上記検出可能範囲を直ちに
認識することは困難であることから、経験によって上記検出可能範囲内での操作を体得せ
ざるを得ず、ユーザに操作上の負担を強いる問題があった。
However, in this type of device, since the light receiving device for detecting an object is fixedly installed, the range in which a user's hand can be normally detected is limited. Therefore, depending on the position of the user's hand or the like, there is a problem that the shape and movement cannot be accurately detected, and the control desired by the user cannot be realized. In addition, since it is difficult for the user to immediately recognize the detectable range in the three-dimensional space, the user has to master the operation within the detectable range by experience, and the user is burdened with the operation. There was a problem to force.

本発明は、上記事情を考慮してなされたもので、画像処理により入力を行なうユーザイ
ンタフェース装置において、ユーザの操作上の負担を軽減したより使い易いユーザインタ
フェース装置及び操作範囲呈示方法を提供することを目的とする。
The present invention has been made in consideration of the above circumstances, and provides a user interface device and an operation range presenting method that reduce the burden on the user's operation in a user interface device that performs input by image processing. With the goal.

本発明は、所定の画像入力装置を基準とした三次元空間に画像入力のための適正範囲が
存在し、該画像入力装置により該適正範囲にある画像処理対象の物体に光を照射しその反
射光を受光することによって画像入力し、該入力画像をもとに該画像入力装置から該画像
処理対象の物体までの距離に関する情報の取得を含む画像処理を行ない、該画像処理の結
果に基づいて特定される所定の入力がなされたものと認識するユーザインタフェース装置
において、少なくとも前記画像入力装置を基準とした遠近方向について、画像処理対象の
物体が適正範囲にあるか否かを、前記距離に関する情報に基づき判定する手段と、適正範
囲にないと判定された場合、その旨を通知するための所定の視覚的情報および聴覚的情報
の少なくとも一方を呈示する手段とを備えたことを特徴とする。
According to the present invention, there is an appropriate range for image input in a three-dimensional space with a predetermined image input device as a reference. The image input device irradiates light on an object to be imaged within the appropriate range and reflects the light. Based on the result of the image processing, the image is input by receiving light, and the image processing including the acquisition of the information about the distance from the image input device to the object to be processed is performed based on the input image. In the user interface device that recognizes that the specified input is specified, information about the distance whether or not the object to be image-processed is in an appropriate range at least in the perspective direction with reference to the image input device. And a means for presenting at least one of predetermined visual information and auditory information for notifying that when it is determined that it is not within the appropriate range. Characterized by comprising and.

本発明によれば、ユーザの手などの対象物体が適正範囲からはずれた場合、例えば表示
装置や音声再生装置を用いてその旨を通知するので、ユーザは容易に3次元空間中での適
正範囲を認識することができ、容易に適正範囲でジェスチャ等を行なって所望の指示等を
入力することができる。
According to the present invention, when a target object such as a user's hand deviates from the appropriate range, for example, a notification is given using a display device or an audio playback device, so that the user can easily perform the appropriate range in the three-dimensional space. Can be recognized, and a desired instruction or the like can be input easily by performing a gesture or the like within an appropriate range.

また、本発明は、所定の画像入力装置を基準とした三次元空間に画像入力のための適正
範囲が存在し、該画像入力装置により該適正範囲にある画像処理対象の物体に光を照射し
その反射光を受光することによって画像入力し、該入力画像をもとに該画像入力装置から
該画像処理対象の物体までの距離に関する情報の取得を含む画像処理を行ない、該画像処
理の結果に基づいて特定される所定の入力がなされたものと認識するユーザインタフェー
ス装置における対象物体の操作範囲呈示方法であって、少なくとも前記画像入力装置を基
準とした遠近方向について、画像処理対象の物体が適正範囲にあるか否かを、前記距離に
関する情報に基づき判定し、適正範囲にないと判定された場合、その旨を通知するための
所定の視覚的情報および聴覚的情報の少なくとも一方を呈示することを特徴とする。
In addition, the present invention has an appropriate range for image input in a three-dimensional space with a predetermined image input device as a reference, and the image input device irradiates light on an object to be imaged in the appropriate range. An image is input by receiving the reflected light, and image processing including acquisition of information on the distance from the image input device to the object to be processed is performed based on the input image. A method for presenting an operation range of a target object in a user interface device that recognizes that a predetermined input specified based on the image input is performed, wherein the object to be image processed is appropriate in at least a perspective direction based on the image input device Whether it is in the range or not is determined based on the information on the distance, and when it is determined that it is not in the proper range, predetermined visual information and auditory information for notifying that Characterized by presenting at least one of the broadcast.

なお、以上の各装置に係る発明は、方法に係る説明としても成立する。また、上記の発
明は、相当する手順あるいは手段をコンピュータに実行させるためのプログラムを記録し
た機械読取り可能な媒体としても成立する。
In addition, the invention which concerns on each above apparatus is materialized also as description which concerns on a method. The above-described invention can also be realized as a machine-readable medium recording a program for causing a computer to execute a corresponding procedure or means.

本発明によれば、ユーザの手などの対象物体が適正範囲からはずれた場合、その旨を通
知するので、ユーザは容易に3次元空間中での適正範囲を認識することができ、容易に適
正範囲でジェスチャ等を行なって所望の指示等を入力することができる。
According to the present invention, when the target object such as the user's hand deviates from the appropriate range, this is notified, so that the user can easily recognize the appropriate range in the three-dimensional space and easily A desired instruction or the like can be input by performing a gesture or the like within the range.

以下、図面を参照しながら発明の実施の形態を説明する。
図1は、本発明の一実施形態に係るユーザインタフェース装置の構成例を示す図である
。また、図2に、本実施形態のユーザインタフェース装置の動作手順例を示す。
Hereinafter, embodiments of the invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration example of a user interface device according to an embodiment of the present invention. FIG. 2 shows an operation procedure example of the user interface device of the present embodiment.

本ユーザインタフェース装置は、例えば、グラフィックユーザインタフェースを持つ計
算機に適用すると好適なものである。すなわち、表示画面上にカーソル、スライダーバー
、スクロールバー、プルダウンメニュー、ボックス、リンク、アプリケーションなどのア
イコンが表示され、ユーザが入力デバイスによりカーソルの移動、アイコンの選択、アプ
リケーションの起動などの指示を入力するようなシステムであって、入力デバイスがマウ
スのような専用器具を必要とせずユーザの手などの物体を画像処理することにより入力を
受けるものであるシステム
This user interface device is suitable when applied to a computer having a graphic user interface, for example. In other words, icons such as cursor, slider bar, scroll bar, pull-down menu, box, link, application, etc. are displayed on the display screen, and the user inputs instructions such as cursor movement, icon selection, application activation by input device System in which an input device does not require a dedicated instrument such as a mouse and receives an input by processing an object such as a user's hand

に適用するものである。
本ユーザインタフェース装置は、入力機能部分と、フィードバック機能部分とに大別さ
れる。入力機能部分は、公知のものを利用することが可能で、光を発光し、ユーザの手な
どの対象物体による反射光を画像として捉えることにより(あるいは背景の光の対象物体
による反射光を画像として捉えることにより)、その形状、動き、距離情報などを検出し
、その形状等に応じた所定の制御(例えば入出力装置に関する制御あるいはアプリケーシ
ョンソフトの起動など)を行なうもので、ユーザは手のモーションなどにより意図する入
力を行なうことができる機能を提供するものである。本実施形態では、画像記憶部11、
形状解釈部12、解釈規則記憶部13、呈示部14からなるものとする。
Applies to
This user interface device is roughly divided into an input function part and a feedback function part. As the input function part, a publicly known one can be used, which emits light and captures the reflected light from the target object such as the user's hand as an image (or images the reflected light from the background light target object. The shape, movement, distance information, etc., and performs predetermined control according to the shape, etc. (for example, input / output device control or application software activation). It provides a function that allows an intended input to be performed by a motion or the like. In the present embodiment, the image storage unit 11,
It is assumed that a shape interpretation unit 12, an interpretation rule storage unit 13, and a presentation unit 14 are included.

フィードバック機能部分は、本発明に係る部分で、ユーザの手などの画像検出対象物体
が適正な検出範囲にあるか否かを評価し、評価結果をユーザに呈示するものである。本実
施形態では、画像記憶部11、適性範囲評価部15、評価結果反映部16からなるものと
する。
The feedback function part is a part according to the present invention, and evaluates whether or not an image detection target object such as a user's hand is within an appropriate detection range, and presents the evaluation result to the user. In the present embodiment, the image storage unit 11, the aptitude range evaluation unit 15, and the evaluation result reflection unit 16 are assumed to be included.

まず、両機能部分に共通の画像記憶部11と図示しない画像入力装置について説明する
。画像記憶部11は、図示しない画像入力装置から所定時間毎(例えば1/30秒毎、1
/60秒毎、1/100秒毎など)に出力される画像検出対象物体の2次元画像を逐次記
憶する(ステップS1)。
First, an image storage unit 11 common to both functional parts and an image input device (not shown) will be described. The image storage unit 11 receives an image input device (not shown) every predetermined time (for example, every 1/30 seconds,
2D images of the object to be detected that are output every 60 seconds, every 1/100 seconds, etc.) are sequentially stored (step S1).

図示しない画像入力装置は、例えば、LEDなどの発光素子により近赤外線などの光を
対象物体に照射する発光部と、対象物体からの反射光を2次元アレイ状に配列された受光
素子で受光する受光部とを有するものである。なお、通常、発光部が発光しているときに
受光した光の量と、発光部が発光していないときに受光した光の量の差をとることによっ
て、バックグラウンドの補正を行ない、発光部からの光の対象物体による反射光の成分だ
けを取り出す。なお、画像入力装置は、発光部を持たず、CCDカメラなどの受光部のみ
持つものであっても良い。
An image input device (not shown) receives, for example, a light emitting unit that irradiates a target object with light such as near infrared rays using a light emitting element such as an LED, and a light receiving element arranged in a two-dimensional array. And a light receiving portion. Normally, the background is corrected by taking the difference between the amount of light received when the light emitting unit is emitting light and the amount of light received when the light emitting unit is not emitting light. Only the component of the reflected light from the target object of light from is extracted. Note that the image input device may have only a light receiving unit such as a CCD camera without having a light emitting unit.

例えば、画像入力装置の前にユーザの手を持ってきた場合、その手からの反射光画像が
得られる。このとき、反射光画像の各画素値は、物体の性質(光を鏡面反射する、散乱す
る、吸収する、など)、物体面の向き、物体の距離、などに影響されるが、物体全体が一
様に光を散乱する物体である場合、その反射光量は物体までの距離と密接な関係を持つ。
手などはこのような性質を持つため、手を差し出した場合の反射光画面は、手の距離、手
の傾き(部分的に距離が異なる)、などを反映する。したがって、これらの情報を抽出す
ることによって、様々な情報の入力・生成が可能になる。
For example, when the user's hand is brought in front of the image input device, a reflected light image from the hand can be obtained. At this time, each pixel value of the reflected light image is affected by the properties of the object (specularly reflecting, scattering, absorbing, etc.), the orientation of the object surface, the distance of the object, etc. In the case of an object that uniformly scatters light, the amount of reflected light is closely related to the distance to the object.
Since the hand and the like have such properties, the reflected light screen when the hand is held out reflects the distance of the hand, the inclination of the hand (partly different distance), and the like. Therefore, various information can be input and generated by extracting these pieces of information.

次に、入力機能部分について説明する。形状解釈部12は、画像記憶部11に記憶され
た2次元画像を、N×N(例えば64×64)のドットマトリクスとして逐次取込む(ス
テップS2)。各画素は階調(例えば8ビット=256階調)を持つものとする。図3(
a)に、対象物体を手としたドットマトリクスの一例を示す。
Next, the input function part will be described. The shape interpretation unit 12 sequentially captures the two-dimensional image stored in the image storage unit 11 as an N × N (for example, 64 × 64) dot matrix (step S2). Each pixel has a gradation (for example, 8 bits = 256 gradations). FIG.
An example of a dot matrix with the target object as a hand is shown in a).

次に、形状解釈部12は、ドットマトリクスから所定の特徴量を抽出し、解釈規則記憶
部13に記憶された解釈規則をもとに、形状解釈する(ステップS3)。そして、適合す
る解釈規則に応じた指示を解釈結果として出力する(ステップS4,S5)。もし適合す
る解釈規則がなければ、必要に応じてドットマトリクスからの所定の特徴量の抽出の仕方
を変更して(例えばドットマトリクスのしきい値処理を行なう場合、そのしきい値を変更
する)、再度マッチング処理をやり直すようにしても良い。最終的に適合する解釈規則が
なければ(ステップS4)、入力はなかったものとする。
Next, the shape interpretation unit 12 extracts a predetermined feature amount from the dot matrix, and interprets the shape based on the interpretation rules stored in the interpretation rule storage unit 13 (step S3). Then, an instruction corresponding to the compatible interpretation rule is output as an interpretation result (steps S4 and S5). If there is no matching interpretation rule, change the method of extracting a predetermined feature amount from the dot matrix as necessary (for example, change the threshold value when performing dot matrix threshold processing) The matching process may be performed again. If there is no finally matching interpretation rule (step S4), it is assumed that no input has been made.

解釈規則記憶部13は、形状解釈のための解釈規則を記憶する。例えば、ユーザの手の
形状などの特徴量に応じた指示内容が解釈規則として記憶されている。指示内容には、ア
イコンの選択、アプリケーションの起動、カーソル移動等がある。カーソル移動の場合に
は、手の移動方向・距離に応じたカーソルの移動量も指示される。例えば、人差し指のみ
を立てた状態をカーソル移動に対応させ(この場合、例えば人差し指の先端の移動距離・
方向がカーソルの移動距離・方向に対応づけられる)、人差し指のみを立てた状態で、親
指を動かした動作を、カーソルの位置するアイコンの選択に対応させ、人差し指のみを立
てた状態で、手のひらを反転させる動作を、カーソルの位置するアイコンに対応するアプ
リケーションの起動に対応させるなどの規則が考えられる。
The interpretation rule storage unit 13 stores interpretation rules for shape interpretation. For example, the instruction content corresponding to the feature amount such as the shape of the user's hand is stored as an interpretation rule. The instruction contents include icon selection, application activation, cursor movement, and the like. In the case of cursor movement, the amount of movement of the cursor according to the movement direction / distance of the hand is also instructed. For example, the state where only the index finger is raised corresponds to the cursor movement (in this case, for example, the movement distance of the tip of the index finger,
(The direction is related to the distance and direction of movement of the cursor) With the index finger only raised, move the thumb to correspond to the selection of the icon where the cursor is located, and with the index finger only raised, palm up A rule may be considered such that the reverse operation corresponds to the activation of an application corresponding to the icon where the cursor is located.

形状解釈部12による形状解釈におけるドットマトリクスから特徴量の抽出の代表例は
、距離情報の抽出と、領域抽出である。物体が一様で均質な散乱面を持つ物体であれば、
反射光画像は距離画像とみなすことができる。したがって、受光部から見込んだ物体の立
体形状を抽出することができる。物体が手であれば、手のひらの傾きなどが検出できる。
手のひらの傾きは部分的な距離の違いとして現れる。また、手を移動させたときに画素値
が変われば、距離が移動したと見ることができる。また、背景のように遠い物体からの反
射光はほとんどないため、反射光画像からあるしきい値以上の領域を切り出すという処理
で、物体の形状を簡単に切り出すことができる。例えば、物体が手であれば、そのシルエ
ット像を切り出すのは極めて容易である。距離画像を用いる場合でも、一度しきい値によ
って領域抽出をしておいてから、その領域内の距離情報を用いる、という場合が多い。
Typical examples of feature amount extraction from a dot matrix in shape interpretation by the shape interpretation unit 12 are extraction of distance information and region extraction. If the object has a uniform and homogeneous scattering surface,
The reflected light image can be regarded as a distance image. Therefore, the three-dimensional shape of the object viewed from the light receiving unit can be extracted. If the object is a hand, the tilt of the palm can be detected.
Palm tilt appears as a partial distance difference. If the pixel value changes when the hand is moved, it can be regarded that the distance has moved. In addition, since there is almost no reflected light from a distant object like the background, the shape of the object can be easily cut out by a process of cutting out an area of a certain threshold value or more from the reflected light image. For example, if the object is a hand, it is very easy to cut out the silhouette image. Even in the case of using a distance image, it is often the case that a region is extracted once by a threshold value and then distance information in the region is used.

ドットマトリクスから抽出した特徴量と解釈規則とのマッチングの手法には種々のもの
がある。例えば、画像からベクトルを抽出するベクトル化、形状モデルにもとづいた形状
の変形状態の抽出、走査線上の距離値にもとづいたスペクトル解析などである。
There are various methods for matching the feature amount extracted from the dot matrix and the interpretation rule. For example, vectorization for extracting a vector from an image, extraction of a deformation state of a shape based on a shape model, spectrum analysis based on a distance value on a scanning line, and the like.

もし適合する形状がなければ、例えばしきい値を変更するなどして、再度マッチング処
理をやり直すようにしても良い。最終的に適合する形状がなければ、入力はなかったもの
と見なす。
If there is no suitable shape, the matching process may be performed again, for example, by changing the threshold value. If there is no finally matching shape, it is considered that there was no input.

呈示部14は、形状解釈部12による解釈結果がユーザに視覚的な情報の呈示を指示す
るものである場合、表示装置にて形状解釈部12による解釈結果を反映した呈示を行なう
。例えば、カーソルを移動させ、カーソルの形状を変更させ、あるいは必要に応じてメッ
セージを呈示する。なお、メッセージの呈示には、音声再生装置が使用または併用される
こともある。
When the interpretation result by the shape interpretation unit 12 instructs the user to present visual information, the presentation unit 14 presents the display device with the interpretation result reflected by the shape interpretation unit 12. For example, the cursor is moved, the shape of the cursor is changed, or a message is presented as necessary. Note that an audio playback device may be used or used together to present a message.

次に、フィードバック機能部分について説明する。適性範囲評価部15は、画像記憶部
11に記憶された2次元画像を、図3(a)のようなドットマトリックスとして取込み(
ステップS2)、対象物体が適性範囲にあるか否かを評価し、評価結果に応じたフィード
バック情報を生成する(ステップS6〜S16)。
Next, the feedback function part will be described. The aptitude range evaluation unit 15 takes in the two-dimensional image stored in the image storage unit 11 as a dot matrix as shown in FIG.
Step S2) evaluates whether or not the target object is in the appropriate range, and generates feedback information according to the evaluation result (steps S6 to S16).

評価結果反映部16は、フィードバック情報をもとに、評価結果を反映した呈示を表示
装置および/または音声再生装置にて行なうよう指示を出す(ステップS17)。
Based on the feedback information, the evaluation result reflecting unit 16 instructs the display device and / or the audio reproduction device to present the reflection of the evaluation result (step S17).

まず、適性範囲評価部15について詳しく説明する。対象物体が適性範囲にある場合に
は、例えば図3(a)のような適当なドットマトリックスが得られ、ユーザの手などによ
る所望の入力が可能である。しかし、対象物体が適性範囲にある場合、より具体的には、
対象物体が受光部に対して近すぎる場合、遠すぎる場合、左からはみ出している場合、右
からはみ出している場合には、ユーザが所望する指示等は入力できない。
First, the aptitude range evaluation unit 15 will be described in detail. When the target object is in the appropriate range, for example, an appropriate dot matrix as shown in FIG. 3A is obtained, and a desired input by the user's hand or the like is possible. However, when the target object is in the appropriate range, more specifically,
When the target object is too close to the light receiving unit, too far away, protrudes from the left, or protrudes from the right, an instruction desired by the user cannot be input.

そこで、適性範囲評価部15は、ドットマトリックスを解析して、対象物体が適性範囲
にあるか(ステップS6)、あるいは近すぎるか(ステップS8)、遠すぎるか(ステッ
プS10)、左からはみ出しているか(ステップS12)、右からはみ出しているか(ス
テップS14)を評価する。そして、対象物体が適性範囲にある場合、ユーザフィードバ
ック情報=NULL(またはNULLを示すコード;例えば0)とし(ステップS7)、
近すぎる場合、ユーザフィードバック情報=近(または近を示すコード;例えば1)とし
(ステップS9)、遠すぎる場合、ユーザフィードバック情報=遠(または遠を示すコー
ド;例えば2)とし(ステップS11)、左からはみ出している場合、ユーザフィードバ
ック情報
Therefore, the aptitude range evaluation unit 15 analyzes the dot matrix and determines whether the target object is in the aptitude range (step S6), is too close (step S8), is too far (step S10), or protrudes from the left. Whether it protrudes from the right (step S14) is evaluated. When the target object is in the aptitude range, user feedback information = NULL (or a code indicating NULL; for example, 0) is set (step S7).
If too close, user feedback information = near (or a code indicating near; for example, 1) (step S9). If too far, user feedback information = far (or a code indicating far; for example, 2) (step S11). User feedback information when protruding from the left

=左(または左を示すコード;例えば3)とし(ステップS13)、右からはみ出してい
る場合、ユーザフィードバック情報=右(または右を示すコード;例えば4)とし(ステ
ップS15)、それ以外の場合、ユーザフィードバック情報=不適とする(ステップS1
6)。
= Left (or a code indicating left; for example, 3) (step S13). When protruding from the right, user feedback information = Right (or a code indicating right; for example, 4) (step S15), otherwise , User feedback information = inappropriate (step S1
6).

図4に、この評価手順の一例を示す。また、図3(a)、図7(a)、図8(a)、図
9(a)、図10(a)にそれぞれ、対象物体が適性範囲にある場合のドットマトリック
ス例、近すぎる場合のドットマトリックス例、遠すぎる場合のドットマトリックス例、左
からはみ出している場合のドットマトリックス例、右からはみ出している場合のドットマ
トリックス例を示す。
FIG. 4 shows an example of this evaluation procedure. In addition, FIG. 3A, FIG. 7A, FIG. 8A, FIG. 9A, and FIG. 10A each show an example of a dot matrix when the target object is in the appropriate range. An example of a dot matrix, an example of a dot matrix when it is too far, an example of a dot matrix that protrudes from the left, and an example of a dot matrix that protrudes from the right are shown.

対象物体が適性範囲にあるか否かの判定には、種々の方法が考えられるが、この例では
、対象物体の画像の面積s、対象物体の画像中の至近点の距離d、対象物体の画像形状に
おける垂直線の長さlを使用するものとする。対象物体の画像の面積sは、ドットマトリ
ックスにおける対象物体に対応する画素の個数またはその全画素に占める割合により表す
ことができる。また、対象物体の画像中の至近点の距離dは、ドットマトリックスにおけ
る対象物体に対応する画素の濃度の最大値の逆数または画素の取り得る最高濃度−該濃度
の最大値で表すことができる。対象物体の画像形状のにおける垂直線の長さlは、図5に
示すようにドットマトリックスにおける対象物体の画像の外形において画素が垂直に連続
する最大個数により表すことができる。
Various methods can be considered to determine whether or not the target object is in the appropriate range. In this example, the area s of the target object image, the distance d of the closest point in the target object image, the target object Let us use the length l of the vertical line in the image shape. The area s of the image of the target object can be represented by the number of pixels corresponding to the target object in the dot matrix or the proportion of all the pixels. Further, the distance d of the closest point in the image of the target object can be expressed by the reciprocal of the maximum density of the pixel corresponding to the target object in the dot matrix or the highest density that the pixel can take-the maximum value of the density. The length l of the vertical line in the image shape of the target object can be represented by the maximum number of pixels that are vertically continuous in the outer shape of the image of the target object in the dot matrix as shown in FIG.

そして、面積sの下限値rと上限値α、画像中の至近点の距離dの下限値βと上限値δ
、画像形状における垂直線の長さlの上限値εを設定しておく。もし、r≦面積s≦α
かつ β≦至近点の距離d≦δ かつ 垂直線の長さl≦εならば(ステップS21)、
範囲は適正とする(ステップS22)。もし、面積s>α かつ 至近点の距離d<βな
らば(ステップS23)、近すぎるとする(ステップS24)。もし、面積s<r かつ
至近点の距離d>δならば(ステップS25)、遠すぎるとする(ステップS26)。
Then, a lower limit value r and an upper limit value α of the area s, and a lower limit value β and an upper limit value δ of the distance d of the closest point in the image.
The upper limit value ε of the vertical line length l in the image shape is set. If r ≦ area s ≦ α
And if β ≦ nearest point distance d ≦ δ and the length of the vertical line l ≦ ε (step S21),
The range is appropriate (step S22). If the area s> α and the distance d <β between the closest points (step S23), it is assumed that the distance is too close (step S24). If area s <r and closest point distance d> δ (step S25), it is assumed that the distance is too far (step S26).

もし、垂直線の長さl>ε かつ垂直線位置は右ならば(ステップS27)、右からは
み出しているとする(ステップS28)。もし、垂直線の長さl>ε かつ 垂直線位置
は左ならば(ステップS29)、左からはみ出しているとする(ステップS30)。
If the vertical line length l> ε and the vertical line position is on the right (step S27), it is assumed that the line protrudes from the right (step S28). If the length of the vertical line l> ε and the vertical line position is on the left (step S29), it is assumed that it protrudes from the left (step S30).

それ以外の場合には、範囲が不適とする(ステップS31)。次に、評価結果反映部1
6について詳しく説明する。
図6に、この処理手順の一例を示す。この処理では、評価結果反映部16は、適性範囲
評価部15から評価結果として与えられるユーザフィードバック情報にもとづいて、表示
画面上に表示されているカーソルの形状を変形させることにより、評価結果を通知する。
In other cases, the range is inappropriate (step S31). Next, the evaluation result reflection unit 1
6 will be described in detail.
FIG. 6 shows an example of this processing procedure. In this process, the evaluation result reflection unit 16 notifies the evaluation result by changing the shape of the cursor displayed on the display screen based on the user feedback information given as the evaluation result from the aptitude range evaluation unit 15. To do.

もし、ユーザフィードバック情報=NULLならば(ステップS41)、カーソルの形
状は変更しない(ステップS42)。この状態の一例を図3(b)に示す。もし、ユーザ
フィードバック情報=近ならば(ステップS43)、例えば図7(a)に示すようにカー
ソルを大きくさせる(ステップS44)。もし、ユーザフィードバック情報=遠ならば(
ステップS45)、例えば図8(a)に示すようにカーソルを小さく薄くさせる(ステッ
プS46)。
If user feedback information = NULL (step S41), the cursor shape is not changed (step S42). An example of this state is shown in FIG. If user feedback information = near (step S43), for example, the cursor is enlarged as shown in FIG. 7A (step S44). If user feedback information = far away (
Step S45), for example, the cursor is made small and thin as shown in FIG. 8A (step S46).

もし、ユーザフィードバック情報=左ならば(ステップS47)、例えば図9(a)に
示すようにカーソルの左端を変形させる(ステップS48)。もし、ユーザフィードバッ
ク情報=右ならば(ステップS49)、例えば図10(a)に示すようにカーソルの左端
を変形させる(ステップS50)。
If user feedback information = left (step S47), for example, the left end of the cursor is deformed as shown in FIG. 9A (step S48). If user feedback information = right (step S49), for example, the left end of the cursor is deformed as shown in FIG. 10A (step S50).

もし、ユーザフィードバック情報=不適ならば、エラーメッセージを表示する(ステッ
プS51)。図11に、この処理手順の他の例を示す。この処理では、評価結果反映部1
6は、適性範囲評価部15から評価結果として与えられるユーザフィードバック情報にも
とづいて、音声再生装置にて評価結果を音声で通知する。
If the user feedback information is inappropriate, an error message is displayed (step S51). FIG. 11 shows another example of this processing procedure. In this process, the evaluation result reflection unit 1
6, based on the user feedback information given as the evaluation result from the aptitude range evaluation unit 15, the voice reproduction apparatus notifies the evaluation result by voice.

もし、ユーザフィードバック情報=NULLならば(ステップS61)、なにも呈示し
ない、あるいはカーソルが移動する音を呈示する(ステップS62)。もし、ユーザフィ
ードバック情報=近ならば(ステップS63)、例えば「近すぎるよ」などの音声を出力
させる(ステップS64)。
If the user feedback information = NULL (step S61), nothing is presented or a sound of moving the cursor is presented (step S62). If user feedback information = near (step S63), for example, a sound such as “It is too close” is output (step S64).

もし、ユーザフィードバック情報=遠ならば(ステップS65)、例えば「遠すぎるよ
」などの音声を出力させる(ステップS66)。もし、ユーザフィードバック情報=左な
らば(ステップS67)、例えば「左にはみ出しているよ」などの音声を出力させる(ス
テップS68)。
If user feedback information = far (step S65), for example, a voice such as “too far” is output (step S66). If the user feedback information = left (step S67), for example, a sound such as “I am protruding to the left” is output (step S68).

もし、ユーザフィードバック情報=右ならば(ステップS69)、例えば「右にはみ出
しているよ」などの音声を出力させる(ステップS70)。もし、ユーザフィードバック
情報=不適ならば、エラーメッセージを音声で呈示する(ステップS71)。
If the user feedback information = right (step S69), for example, a sound such as “I protrude to the right” is output (step S70). If the user feedback information is inappropriate, an error message is presented by voice (step S71).

なお、図6の処理と図11の処理を併用し、画像と音声で通知するようにしても良い。
あるいは、画像で通知する機能と音声で通知する機能を容易しておき、ユーザが個別に機
能のオン/オフを設定できるようにしても良い。
Note that the processing in FIG. 6 and the processing in FIG. 11 may be used together to notify by image and sound.
Alternatively, the function of notifying by image and the function of notifying by sound may be facilitated so that the user can individually set the function on / off.

以上のように、本実施形態によれば、ユーザの手などの対象物体が適正範囲からはずれ
た場合、その旨を通知するので、ユーザは容易に3次元空間中での適正範囲を認識するこ
とができ、容易に適正範囲でジェスチャ等を行なって所望の指示等を入力することができ
る。
As described above, according to the present embodiment, when a target object such as a user's hand deviates from the appropriate range, a notification to that effect is given, so that the user can easily recognize the appropriate range in the three-dimensional space. It is possible to easily input a desired instruction or the like by performing a gesture or the like within an appropriate range.

なお、図2の手順では、入力機能部分の処理とフィードバック機能部分の処理は独立的
に実行するものであったが、手順を修正して、入力機能部分の処理に先だってフィードバ
ック機能部分の処理を行ない、対象物体が適正範囲にあると判定された場合にのみ入力機
能部分の処理を実行するようにしても良い。
In the procedure shown in FIG. 2, the processing of the input function portion and the processing of the feedback function portion are executed independently. However, the procedure is modified so that the processing of the feedback function portion is performed prior to the processing of the input function portion. The processing of the input function portion may be executed only when it is determined that the target object is within the appropriate range.

また、以上の各機能は、ソフトウェアとしても実現可能である。また、上記した各手順
あるいは手段をコンピュータに実行させるためのプログラムを記録した機械読取り可能な
媒体として実施することもできる。本発明は、上述した実施の形態に限定されるものでは
なく、その技術的範囲において種々変形して実施することができる。
The above functions can also be realized as software. Further, the present invention can also be implemented as a machine-readable medium in which a program for causing a computer to execute each procedure or means described above is recorded. The present invention is not limited to the embodiment described above, and can be implemented with various modifications within the technical scope thereof.

本発明の実施の形態に係るユーザインタフェース装置の構成例を示す図。The figure which shows the structural example of the user interface apparatus which concerns on embodiment of this invention. 本実施形態の処理手順の一例を示すフローチャート。The flowchart which shows an example of the process sequence of this embodiment. 対象物体が適性範囲にある場合のドットマトリクスの一例とその場合の画面表示例を示す図。The figure which shows an example of a dot matrix when a target object exists in a suitable range, and the example of a screen display in that case. 対象物体が適性範囲にあるかどうかの評価手順の一例を示すフローチャート。The flowchart which shows an example of the evaluation procedure whether a target object exists in a suitable range. 対象物体の画像形状における垂直線の長さlを説明するための図。The figure for demonstrating the length l of the perpendicular line in the image shape of a target object. 評価結果反映手順の一例を示すフローチャート。The flowchart which shows an example of an evaluation result reflection procedure. 対象物体が近すぎる場合のドットマトリクスの一例とその場合の画面表示例を示す図。The figure which shows an example of a dot matrix when a target object is too close, and the example of a screen display in that case. 対象物体が遠すぎる場合の適性範囲にあるドットマトリクスの一例とその場合の画面表示例を示す図。The figure which shows an example of the dot matrix in the suitable range when a target object is too far, and the example of a screen display in that case. 対象物体が左からはみ出している場合のドットマトリクスの一例とその場合の画面表示例を示す図。The figure which shows an example of a dot matrix in case the target object protrudes from the left, and the example of a screen display in that case. 対象物体が右からはみ出している場合のドットマトリクスの一例とその場合の画面表示例を示す図。The figure which shows an example of a dot matrix in case the target object protrudes from the right, and the example of a screen display in that case. 評価結果反映手順の他の例を示すフローチャート。The flowchart which shows the other example of an evaluation result reflection procedure.

符号の説明Explanation of symbols

11…画像記憶部
12…形状解釈部
13…解釈規則記憶部
14…呈示部
15…適性範囲評価部
16…評価結果反映部
DESCRIPTION OF SYMBOLS 11 ... Image memory | storage part 12 ... Shape interpretation part 13 ... Interpretation rule memory | storage part 14 ... Presentation part 15 ... Aptitude range evaluation part 16 ... Evaluation result reflection part

Claims (2)

所定の画像入力装置を基準とした三次元空間に画像入力のための適正範囲が存在し、該
画像入力装置により該適正範囲にある画像処理対象の物体に光を照射しその反射光を受光
することによって画像入力し、該入力画像をもとに該画像入力装置から該画像処理対象の
物体までの距離に関する情報の取得を含む画像処理を行ない、該画像処理の結果に基づい
て特定される所定の入力がなされたものと認識するユーザインタフェース装置において、
少なくとも前記画像入力装置を基準とした遠近方向について、画像処理対象の物体が適
正範囲にあるか否かを、前記距離に関する情報に基づき判定する手段と、
適正範囲にないと判定された場合、その旨を通知するための所定の視覚的情報および聴
覚的情報の少なくとも一方を呈示する手段とを備えたことを特徴とするユーザインタフェ
ース装置。
An appropriate range for image input exists in a three-dimensional space with a predetermined image input device as a reference, and the image input device irradiates light to the object to be image processed and receives the reflected light. The image is input, the image processing including the acquisition of information about the distance from the image input device to the object to be processed is performed based on the input image, and is specified based on the result of the image processing. In the user interface device that recognizes that the input of
Means for determining, based on the information about the distance, whether or not the object to be image-processed is in an appropriate range for at least a perspective direction based on the image input device;
A user interface device, comprising: means for presenting at least one of predetermined visual information and auditory information for notifying that when it is determined not to be in an appropriate range.
所定の画像入力装置を基準とした三次元空間に画像入力のための適正範囲が存在し、該
画像入力装置により該適正範囲にある画像処理対象の物体に光を照射しその反射光を受光
することによって画像入力し、該入力画像をもとに該画像入力装置から該画像処理対象の
物体までの距離に関する情報の取得を含む画像処理を行ない、該画像処理の結果に基づい
て特定される所定の入力がなされたものと認識するユーザインタフェース装置における対
象物体の操作範囲呈示方法であって、
少なくとも前記画像入力装置を基準とした遠近方向について、画像処理対象の物体が適
正範囲にあるか否かを、前記距離に関する情報に基づき判定し、
適正範囲にないと判定された場合、その旨を通知するための所定の視覚的情報および聴
覚的情報の少なくとも一方を呈示することを特徴とする操作範囲呈示方法。
An appropriate range for image input exists in a three-dimensional space with a predetermined image input device as a reference, and the image input device irradiates light to the object to be image processed and receives the reflected light. The image is input, the image processing including the acquisition of information about the distance from the image input device to the object to be processed is performed based on the input image, and is specified based on the result of the image processing. A method for presenting an operation range of a target object in a user interface device that is recognized as having been input,
Whether or not the object to be image-processed is in an appropriate range for at least a perspective direction based on the image input device is determined based on the information on the distance,
An operation range presenting method characterized by presenting at least one of predetermined visual information and auditory information for notifying that when it is determined that it is not within an appropriate range.
JP2005268978A 2005-09-15 2005-09-15 User interface device and operating range presenting method Pending JP2006018856A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005268978A JP2006018856A (en) 2005-09-15 2005-09-15 User interface device and operating range presenting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005268978A JP2006018856A (en) 2005-09-15 2005-09-15 User interface device and operating range presenting method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP00977397A Division JP3819096B2 (en) 1997-01-22 1997-01-22 User interface device and operation range presentation method

Publications (1)

Publication Number Publication Date
JP2006018856A true JP2006018856A (en) 2006-01-19

Family

ID=35793004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005268978A Pending JP2006018856A (en) 2005-09-15 2005-09-15 User interface device and operating range presenting method

Country Status (1)

Country Link
JP (1) JP2006018856A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234317A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234317A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program

Similar Documents

Publication Publication Date Title
JP3819096B2 (en) User interface device and operation range presentation method
US11182685B2 (en) Interactions with virtual objects for machine control
US6266061B1 (en) User interface apparatus and operation range presenting method
US10739965B2 (en) Virtual interactions for machine control
JP6323040B2 (en) Image processing apparatus, image processing method, and program
US9030498B2 (en) Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US20180307321A1 (en) Build Status of a Buildable Product
US11663784B2 (en) Content creation in augmented reality environment
US20170038850A1 (en) System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US8959013B2 (en) Virtual keyboard for a non-tactile three dimensional user interface
Petersen et al. Cognitive augmented reality
US8166421B2 (en) Three-dimensional user interface
US10416834B1 (en) Interaction strength using virtual objects for machine control
US20070018966A1 (en) Predicted object location
WO2016189390A2 (en) Gesture control system and method for smart home
US20140320524A1 (en) Image Display Apparatus, Image Display Method, And Information Storage Medium
US20070216642A1 (en) System For 3D Rendering Applications Using Hands
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP2008052590A (en) Interface device and its method
KR101483054B1 (en) Mobile -based augmented reality authoring system and method for interaction
CN111064999B (en) Method and system for processing virtual reality input
JP2007034525A (en) Information processor, information processing method and computer program
Laielli et al. Labelar: a spatial guidance interface for fast computer vision image collection
JP6325659B2 (en) Operation screen display device, operation screen display method and program
JP2006018856A (en) User interface device and operating range presenting method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20070202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080603