JPH10207619A - ユーザインタフェース装置及び操作範囲呈示方法 - Google Patents
ユーザインタフェース装置及び操作範囲呈示方法Info
- Publication number
- JPH10207619A JPH10207619A JP9009773A JP977397A JPH10207619A JP H10207619 A JPH10207619 A JP H10207619A JP 9009773 A JP9009773 A JP 9009773A JP 977397 A JP977397 A JP 977397A JP H10207619 A JPH10207619 A JP H10207619A
- Authority
- JP
- Japan
- Prior art keywords
- image
- range
- processed
- appropriate range
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Digital Computer Display Output (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
ェース装置において、ユーザの操作上の負担を軽減した
より使い易いユーザインタフェース装置及び操作範囲呈
示方法を提供すること。 【解決手段】 画像処理により入力を行なうユーザイン
タフェース装置において、画像処理対象の物体が画像処
理可能な適正範囲にあるか否かを判定する手段と、適正
範囲にないと判定された場合、所定の視覚的情報および
聴覚的情報の少なくとも一方を呈示する手段とを備えた
ことを特徴とする。例えば、適正範囲から遠方にはずれ
ている場合、カーソルを小さくおよび/または薄く表示
し、近傍にずれている場合、カーソルを大きく表示し、
左方にはずれている場合、カーソルの左方の端を歪ませ
て表示し、右方にはずれていると判定された場合、カー
ソルの右方の端を歪ませて表示する。
Description
力を行なうユーザインタフェース装置及び画像処理の対
象物体に対する操作範囲呈示方法に関する。
ウスが圧倒的に使われている。しかし、マウスで操作で
きることは、カーソルの移動と、メニューの選択などで
あり、あくまでも2次元のポインティングデバイスとし
ての役目に過ぎない。マウスで扱えるのは、2次元の情
報であり、3次元空間の中の物体など奥行きがあるもの
を選択することは難しい。また、アニメーションを作成
する場合、キャラクタの動きをつけるのに、マウスのよ
うな入力デバイスでは、自然な動きをつけることが難し
い。
うために、ボールを所望の方向に押したり回したりして
6軸方向の情報を入力する装置や、いわゆるデータグロ
ーブやデータスーツ、サイバーグローブといった手など
にはめて使用する装置が開発されている。しかし、これ
ら装置は操作性の悪さ等のために、当初の期待程、普及
していないのが現実である。
扱うことなく、手振りや身振りでユーザの意図する情報
を入力できる直接指示型の入力装置が開発されている。
例えば、光を照射し、ユーザの手による反射光を受光
し、これを画像化して特徴量抽出や形状認識処理を行な
い、手の形状に応じた制御を実行したり、手の移動量に
応じた分のカーソル移動や3次元モデルにおける視点の
変更を行なったりするものがある。
し、ビデオ映像を解析することにより、上記と同様の処
理を行なうものがある。このような装置によって、ユー
ザは特殊な装置を装着などすることなく、簡易にジェス
チャで入力を行なうことができる。
では、物体検出のための受光装置は固定的に設置される
ため、ユーザの手などを正常に検出可能な範囲が限定さ
れる。したがって、ユーザの手などの位置によっては、
その形状や動きを正確に検出することができず、ユーザ
が所望する制御等を実現できない問題があった。また、
ユーザは3次元空間中での上記検出可能範囲を直ちに認
識することは困難であることから、経験によって上記検
出可能範囲内での操作を体得せざるを得ず、ユーザに操
作上の負担を強いる問題があった。
ので、画像処理により入力を行なうユーザインタフェー
ス装置において、ユーザの操作上の負担を軽減したより
使い易いユーザインタフェース装置及び操作範囲呈示方
法を提供することを目的とする。
り入力を行なうユーザインタフェース装置において、画
像処理対象の物体が画像処理可能な適正範囲にあるか否
かを判定する手段と、適正範囲にないと判定された場
合、所定の視覚的情報および聴覚的情報の少なくとも一
方を呈示する手段とを備えたことを特徴とする。
体が適正範囲からはずれた場合、例えば表示装置や音声
再生装置を用いてその旨を通知するので、ユーザは容易
に3次元空間中での適正範囲を認識することができ、容
易に適正範囲でジェスチャ等を行なって所望の指示等を
入力することができる。
なうユーザインタフェース装置において、画像処理対象
の物体が画像処理可能な適正範囲にあるか否かおよび適
正範囲にない場合に画像処理対象の物体が適正範囲から
どの方向にはずれているかを判定する手段と、適正範囲
にないと判定された場合、表示画面に表示するカーソル
の表示状態を所定の状態に変化させて、画像処理対象の
物体が適正範囲からどの方向にはずれているかを通知す
る手段とを備えたことを特徴とする。
体が適正範囲からはずれた場合、表示画面に表示するカ
ーソルの表示状態を所定の状態に変化させて、画像処理
対象の物体が適正範囲からどの方向にはずれているかを
通知するので、ユーザは視覚的に適正範囲から対象物体
がはずれている方向を認識し、容易かつ即座に対象物体
の位置を修正することができ、この結果、容易に3次元
空間中での適正範囲を認識することができ、容易に適正
範囲でジェスチャ等を行なって所望の指示等を入力する
ことができる。
囲から遠方にはずれていると判定された場合、カーソル
を小さくおよび/または薄く表示することを特徴とす
る。好ましくは、画像処理対象の物体が適正範囲から近
傍にずれていると判定された場合、カーソルを大きく表
示することを特徴とする。
囲から左方にはずれていると判定された場合、カーソル
の左方の端を歪ませて表示することを特徴とする。好ま
しくは、画像処理対象の物体が適正範囲から右方にはず
れていると判定された場合、カーソルの右方の端を歪ま
せて表示することを特徴とする。
場合、音声を用いて画像処理対象の物体が適正範囲から
どの方向にはずれているかを通知する手段をさらに備え
たことを特徴とする。
なうユーザインタフェース装置において、画像処理対象
の物体が画像処理可能な適正範囲にあるか否かおよび適
正範囲にない場合に画像処理対象の物体が適正範囲から
どの方向にはずれているかを判定する手段と、適正範囲
にないと判定された場合、音声により画像処理対象の物
体が適正範囲からどの方向にはずれているかを通知する
手段とを備えたことを特徴とする。
体が適正範囲からはずれた場合、音声を用いて画像処理
対象の物体が適正範囲からどの方向にはずれているかを
通知するので、ユーザは聴覚的に適正範囲から対象物体
がはずれている方向を認識し、容易かつ即座に対象物体
の位置を修正することができ、この結果、容易に3次元
空間中での適正範囲を認識することができ、容易に適正
範囲でジェスチャ等を行なって所望の指示等を入力する
ことができる。
り入力を行なうユーザインタフェース装置における対象
物体の操作範囲呈示方法であって、画像処理対象の物体
が画像処理可能な適正範囲にあるか否かを判定し、適正
範囲にないと判定された場合、所定の視覚的情報および
聴覚的情報の少なくとも一方を呈示することを特徴とす
る。
り入力を行なうユーザインタフェース装置における対象
物体の操作範囲呈示方法であって、画像処理対象の物体
が画像処理可能な適正範囲にあるか否かおよび適正範囲
にない場合に画像処理対象の物体が適正範囲からどの方
向にはずれているかを判定し、適正範囲にないと判定さ
れた場合、表示画面に表示するカーソルの表示状態を所
定の状態に変化させて、画像処理対象の物体が適正範囲
からどの方向にはずれているかを通知することを特徴と
する。
り入力を行なうユーザインタフェース装置における対象
物体の操作範囲呈示方法であって、画像処理対象の物体
が画像処理可能な適正範囲にあるか否かおよび適正範囲
にない場合に画像処理対象の物体が適正範囲からどの方
向にはずれているかを判定し、適正範囲にないと判定さ
れた場合、音声により画像処理対象の物体が適正範囲か
らどの方向にはずれているかを通知することを特徴とす
る。
係る説明としても成立する。また、上記の発明は、相当
する手順あるいは手段をコンピュータに実行させるため
のプログラムを記録した機械読取り可能な媒体としても
成立する。
実施の形態を説明する。図1は、本発明の一実施形態に
係るユーザインタフェース装置の構成例を示す図であ
る。また、図2に、本実施形態のユーザインタフェース
装置の動作手順例を示す。
グラフィックユーザインタフェースを持つ計算機に適用
すると好適なものである。すなわち、表示画面上にカー
ソル、スライダーバー、スクロールバー、プルダウンメ
ニュー、ボックス、リンク、アプリケーションなどのア
イコンが表示され、ユーザが入力デバイスによりカーソ
ルの移動、アイコンの選択、アプリケーションの起動な
どの指示を入力するようなシステムであって、入力デバ
イスがマウスのような専用器具を必要とせずユーザの手
などの物体を画像処理することにより入力を受けるもの
であるシステムに適用するものである。
部分と、フィードバック機能部分とに大別される。入力
機能部分は、公知のものを利用することが可能で、光を
発光し、ユーザの手などの対象物体による反射光を画像
として捉えることにより(あるいは背景の光の対象物体
による反射光を画像として捉えることにより)、その形
状、動き、距離情報などを検出し、その形状等に応じた
所定の制御(例えば入出力装置に関する制御あるいはア
プリケーションソフトの起動など)を行なうもので、ユ
ーザは手のモーションなどにより意図する入力を行なう
ことができる機能を提供するものである。本実施形態で
は、画像記憶部11、形状解釈部12、解釈規則記憶部
13、呈示部14からなるものとする。
部分で、ユーザの手などの画像検出対象物体が適正な検
出範囲にあるか否かを評価し、評価結果をユーザに呈示
するものである。本実施形態では、画像記憶部11、適
性範囲評価部15、評価結果反映部16からなるものと
する。
と図示しない画像入力装置について説明する。画像記憶
部11は、図示しない画像入力装置から所定時間毎(例
えば1/30秒毎、1/60秒毎、1/100秒毎な
ど)に出力される画像検出対象物体の2次元画像を逐次
記憶する(ステップS1)。
Dなどの発光素子により近赤外線などの光を対象物体に
照射する発光部と、対象物体からの反射光を2次元アレ
イ状に配列された受光素子で受光する受光部とを有する
ものである。なお、通常、発光部が発光しているときに
受光した光の量と、発光部が発光していないときに受光
した光の量の差をとることによって、バックグラウンド
の補正を行ない、発光部からの光の対象物体による反射
光の成分だけを取り出す。なお、画像入力装置は、発光
部を持たず、CCDカメラなどの受光部のみ持つもので
あっても良い。
持ってきた場合、その手からの反射光画像が得られる。
このとき、反射光画像の各画素値は、物体の性質(光を
鏡面反射する、散乱する、吸収する、など)、物体面の
向き、物体の距離、などに影響されるが、物体全体が一
様に光を散乱する物体である場合、その反射光量は物体
までの距離と密接な関係を持つ。手などはこのような性
質を持つため、手を差し出した場合の反射光画面は、手
の距離、手の傾き(部分的に距離が異なる)、などを反
映する。したがって、これらの情報を抽出することによ
って、様々な情報の入力・生成が可能になる。
状解釈部12は、画像記憶部11に記憶された2次元画
像を、N×N(例えば64×64)のドットマトリクス
として逐次取込む(ステップS2)。各画素は階調(例
えば8ビット=256階調)を持つものとする。図3
(a)に、対象物体を手としたドットマトリクスの一例
を示す。
スから所定の特徴量を抽出し、解釈規則記憶部13に記
憶された解釈規則をもとに、形状解釈する(ステップS
3)。そして、適合する解釈規則に応じた指示を解釈結
果として出力する(ステップS4,S5)。もし適合す
る解釈規則がなければ、必要に応じてドットマトリクス
からの所定の特徴量の抽出の仕方を変更して(例えばド
ットマトリクスのしきい値処理を行なう場合、そのしき
い値を変更する)、再度マッチング処理をやり直すよう
にしても良い。最終的に適合する解釈規則がなければ
(ステップS4)、入力はなかったものとする。
解釈規則を記憶する。例えば、ユーザの手の形状などの
特徴量に応じた指示内容が解釈規則として記憶されてい
る。指示内容には、アイコンの選択、アプリケーション
の起動、カーソル移動等がある。カーソル移動の場合に
は、手の移動方向・距離に応じたカーソルの移動量も指
示される。例えば、人差し指のみを立てた状態をカーソ
ル移動に対応させ(この場合、例えば人差し指の先端の
移動距離・方向がカーソルの移動距離・方向に対応づけ
られる)、人差し指のみを立てた状態で、親指を動かし
た動作を、カーソルの位置するアイコンの選択に対応さ
せ、人差し指のみを立てた状態で、手のひらを反転させ
る動作を、カーソルの位置するアイコンに対応するアプ
リケーションの起動に対応させるなどの規則が考えられ
る。
ットマトリクスから特徴量の抽出の代表例は、距離情報
の抽出と、領域抽出である。物体が一様で均質な散乱面
を持つ物体であれば、反射光画像は距離画像とみなすこ
とができる。したがって、受光部から見込んだ物体の立
体形状を抽出することができる。物体が手であれば、手
のひらの傾きなどが検出できる。手のひらの傾きは部分
的な距離の違いとして現れる。また、手を移動させたと
きに画素値が変われば、距離が移動したと見ることがで
きる。また、背景のように遠い物体からの反射光はほと
んどないため、反射光画像からあるしきい値以上の領域
を切り出すという処理で、物体の形状を簡単に切り出す
ことができる。例えば、物体が手であれば、そのシルエ
ット像を切り出すのは極めて容易である。距離画像を用
いる場合でも、一度しきい値によって領域抽出をしてお
いてから、その領域内の距離情報を用いる、という場合
が多い。
釈規則とのマッチングの手法には種々のものがある。例
えば、画像からベクトルを抽出するベクトル化、形状モ
デルにもとづいた形状の変形状態の抽出、走査線上の距
離値にもとづいたスペクトル解析などである。
い値を変更するなどして、再度マッチング処理をやり直
すようにしても良い。最終的に適合する形状がなけれ
ば、入力はなかったものと見なす。
結果がユーザに視覚的な情報の呈示を指示するものであ
る場合、表示装置にて形状解釈部12による解釈結果を
反映した呈示を行なう。例えば、カーソルを移動させ、
カーソルの形状を変更させ、あるいは必要に応じてメッ
セージを呈示する。なお、メッセージの呈示には、音声
再生装置が使用または併用されることもある。
明する。適性範囲評価部15は、画像記憶部11に記憶
された2次元画像を、図3(a)のようなドットマトリ
ックスとして取込み(ステップS2)、対象物体が適性
範囲にあるか否かを評価し、評価結果に応じたフィード
バック情報を生成する(ステップS6〜S16)。
報をもとに、評価結果を反映した呈示を表示装置および
/または音声再生装置にて行なうよう指示を出す(ステ
ップS17)。
説明する。対象物体が適性範囲にある場合には、例えば
図3(a)のような適当なドットマトリックスが得ら
れ、ユーザの手などによる所望の入力が可能である。し
かし、対象物体が適性範囲にある場合、より具体的に
は、対象物体が受光部に対して近すぎる場合、遠すぎる
場合、左からはみ出している場合、右からはみ出してい
る場合には、ユーザが所望する指示等は入力できない。
トリックスを解析して、対象物体が適性範囲にあるか
(ステップS6)、あるいは近すぎるか(ステップS
8)、遠すぎるか(ステップS10)、左からはみ出し
ているか(ステップS12)、右からはみ出しているか
(ステップS14)を評価する。そして、対象物体が適
性範囲にある場合、ユーザフィードバック情報=NUL
L(またはNULLを示すコード;例えば0)とし(ス
テップS7)、近すぎる場合、ユーザフィードバック情
報=近(または近を示すコード;例えば1)とし(ステ
ップS9)、遠すぎる場合、ユーザフィードバック情報
=遠(または遠を示すコード;例えば2)とし(ステッ
プS11)、左からはみ出している場合、ユーザフィー
ドバック情報=左(または左を示すコード;例えば3)
とし(ステップS13)、右からはみ出している場合、
ユーザフィードバック情報=右(または右を示すコー
ド;例えば4)とし(ステップS15)、それ以外の場
合、ユーザフィードバック情報=不適とする(ステップ
S16)。
た、図3(a)、図7(a)、図8(a)、図9
(a)、図10(a)にそれぞれ、対象物体が適性範囲
にある場合のドットマトリックス例、近すぎる場合のド
ットマトリックス例、遠すぎる場合のドットマトリック
ス例、左からはみ出している場合のドットマトリックス
例、右からはみ出している場合のドットマトリックス例
を示す。
は、種々の方法が考えられるが、この例では、対象物体
の画像の面積s、対象物体の画像中の至近点の距離d、
対象物体の画像形状における垂直線の長さlを使用する
ものとする。対象物体の画像の面積sは、ドットマトリ
ックスにおける対象物体に対応する画素の個数またはそ
の全画素に占める割合により表すことができる。また、
対象物体の画像中の至近点の距離dは、ドットマトリッ
クスにおける対象物体に対応する画素の濃度の最大値の
逆数または画素の取り得る最高濃度−該濃度の最大値で
表すことができる。対象物体の画像形状のにおける垂直
線の長さlは、図5に示すようにドットマトリックスに
おける対象物体の画像の外形において画素が垂直に連続
する最大個数により表すことができる。
像中の至近点の距離dの下限値βと上限値δ、画像形状
における垂直線の長さlの上限値εを設定しておく。も
し、r≦面積s≦α かつ β≦至近点の距離d≦δ
かつ 垂直線の長さl≦εならば(ステップS21)、
範囲は適正とする(ステップS22)。
<βならば(ステップS23)、近すぎるとする(ステ
ップS24)。もし、面積s<r かつ至近点の距離d
>δならば(ステップS25)、遠すぎるとする(ステ
ップS26)。
置は右ならば(ステップS27)、右からはみ出してい
るとする(ステップS28)。もし、垂直線の長さl>
ε かつ 垂直線位置は左ならば(ステップS29)、
左からはみ出しているとする(ステップS30)。
(ステップS31)。次に、評価結果反映部16につい
て詳しく説明する。図6に、この処理手順の一例を示
す。この処理では、評価結果反映部16は、適性範囲評
価部15から評価結果として与えられるユーザフィード
バック情報にもとづいて、表示画面上に表示されている
カーソルの形状を変形させることにより、評価結果を通
知する。
Lならば(ステップS41)、カーソルの形状は変更し
ない(ステップS42)。この状態の一例を図3(b)
に示す。
ば(ステップS43)、例えば図7(a)に示すように
カーソルを大きくさせる(ステップS44)。もし、ユ
ーザフィードバック情報=遠ならば(ステップS4
5)、例えば図8(a)に示すようにカーソルを小さく
薄くさせる(ステップS46)。
ば(ステップS47)、例えば図9(a)に示すように
カーソルの左端を変形させる(ステップS48)。も
し、ユーザフィードバック情報=右ならば(ステップS
49)、例えば図10(a)に示すようにカーソルの左
端を変形させる(ステップS50)。
らば、エラーメッセージを表示する(ステップS5
1)。図11に、この処理手順の他の例を示す。この処
理では、評価結果反映部16は、適性範囲評価部15か
ら評価結果として与えられるユーザフィードバック情報
にもとづいて、音声再生装置にて評価結果を音声で通知
する。
Lならば(ステップS61)、なにも呈示しない、ある
いはカーソルが移動する音を呈示する(ステップS6
2)。もし、ユーザフィードバック情報=近ならば(ス
テップS63)、例えば「近すぎるよ」などの音声を出
力させる(ステップS64)。
ば(ステップS65)、例えば「遠すぎるよ」などの音
声を出力させる(ステップS66)。もし、ユーザフィ
ードバック情報=左ならば(ステップS67)、例えば
「左にはみ出しているよ」などの音声を出力させる(ス
テップS68)。
ば(ステップS69)、例えば「右にはみ出している
よ」などの音声を出力させる(ステップS70)。も
し、ユーザフィードバック情報=不適ならば、エラーメ
ッセージを音声で呈示する(ステップS71)。
し、画像と音声で通知するようにしても良い。あるい
は、画像で通知する機能と音声で通知する機能を容易し
ておき、ユーザーが個別に機能のオン/オフを設定でき
るようにしても良い。
ザの手などの対象物体が適正範囲からはずれた場合、そ
の旨を通知するので、ユーザは容易に3次元空間中での
適正範囲を認識することができ、容易に適正範囲でジェ
スチャ等を行なって所望の指示等を入力することができ
る。
理とフィードバック機能部分の処理は独立的に実行する
ものであったが、手順を修正して、入力機能部分の処理
に先だってフィードバック機能部分の処理を行ない、対
象物体が適正範囲にあると判定された場合にのみ入力機
能部分の処理を実行するようにしても良い。
ても実現可能である。また、上記した各手順あるいは手
段をコンピュータに実行させるためのプログラムを記録
した機械読取り可能な媒体として実施することもでき
る。本発明は、上述した実施の形態に限定されるもので
はなく、その技術的範囲において種々変形して実施する
ことができる。
物体が適正範囲からはずれた場合、その旨を通知するの
で、ユーザは容易に3次元空間中での適正範囲を認識す
ることができ、容易に適正範囲でジェスチャ等を行なっ
て所望の指示等を入力することができる。
ス装置の構成例を示す図
ート
クスの一例とその場合の画面表示例を示す図
の一例を示すフローチャート
説明するための図
一例とその場合の画面表示例を示す図
トマトリクスの一例とその場合の画面表示例を示す図
マトリクスの一例とその場合の画面表示例を示す図
トマトリクスの一例とその場合の画面表示例を示す図
ート
Claims (11)
- 【請求項1】画像処理により入力を行なうユーザインタ
フェース装置において、 画像処理対象の物体が画像処理可能な適正範囲にあるか
否かを判定する手段と、 適正範囲にないと判定された場合、所定の視覚的情報お
よび聴覚的情報の少なくとも一方を呈示する手段とを備
えたことを特徴とするユーザインタフェース装置。 - 【請求項2】画像処理により入力を行なうユーザインタ
フェース装置において、 画像処理対象の物体が画像処理可能な適正範囲にあるか
否かおよび適正範囲にない場合に画像処理対象の物体が
適正範囲からどの方向にはずれているかを判定する手段
と、 適正範囲にないと判定された場合、表示画面に表示する
カーソルの表示状態を所定の状態に変化させて、画像処
理対象の物体が適正範囲からどの方向にはずれているか
を通知する手段とを備えたことを特徴とするユーザイン
タフェース装置。 - 【請求項3】画像処理対象の物体が適正範囲から遠方に
はずれていると判定された場合、カーソルを小さくおよ
び/または薄く表示することを特徴とする請求項2に記
載のユーザインタフェース装置。 - 【請求項4】画像処理対象の物体が適正範囲から近傍に
ずれていると判定された場合、カーソルを大きく表示す
ることを特徴とする請求項2に記載のユーザインタフェ
ース装置。 - 【請求項5】画像処理対象の物体が適正範囲から左方に
はずれていると判定された場合、、カーソルの左方の端
を歪ませて表示することを特徴とする請求項2に記載の
ユーザインタフェース装置。 - 【請求項6】画像処理対象の物体が適正範囲から右方に
はずれていると判定された場合、カーソルの右方の端を
歪ませて表示することを特徴とする請求項2に記載のユ
ーザインタフェース装置。 - 【請求項7】適正範囲にないと判定された場合、音声を
用いて画像処理対象の物体が適正範囲からどの方向には
ずれているかを通知する手段をさらに備えたことを特徴
とする請求項2ないし6のいずれか1項に記載のユーザ
インタフェース装置。 - 【請求項8】画像処理により入力を行なうユーザインタ
フェース装置において、 画像処理対象の物体が画像処理可能な適正範囲にあるか
否かおよび適正範囲にない場合に画像処理対象の物体が
適正範囲からどの方向にはずれているかを判定する手段
と、 適正範囲にないと判定された場合、音声により画像処理
対象の物体が適正範囲からどの方向にはずれているかを
通知する手段とを備えたことを特徴とするユーザインタ
フェース装置。 - 【請求項9】対象物体の画像処理により入力を行なうユ
ーザインタフェース装置における対象物体の操作範囲呈
示方法であって、 画像処理対象の物体が画像処理可能な適正範囲にあるか
否かを判定し、 適正範囲にないと判定された場合、所定の視覚的情報お
よび聴覚的情報の少なくとも一方を呈示することを特徴
とする操作範囲呈示方法。 - 【請求項10】対象物体の画像処理により入力を行なう
ユーザインタフェース装置における対象物体の操作範囲
呈示方法であって、 画像処理対象の物体が画像処理可能な適正範囲にあるか
否かおよび適正範囲にない場合に画像処理対象の物体が
適正範囲からどの方向にはずれているかを判定し、 適正範囲にないと判定された場合、表示画面に表示する
カーソルの表示状態を所定の状態に変化させて、画像処
理対象の物体が適正範囲からどの方向にはずれているか
を通知することを特徴とする操作範囲呈示方法。 - 【請求項11】対象物体の画像処理により入力を行なう
ユーザインタフェース装置における対象物体の操作範囲
呈示方法であって、 画像処理対象の物体が画像処理可能な適正範囲にあるか
否かおよび適正範囲にない場合に画像処理対象の物体が
適正範囲からどの方向にはずれているかを判定し、 適正範囲にないと判定された場合、音声により画像処理
対象の物体が適正範囲からどの方向にはずれているかを
通知することを特徴とする操作範囲呈示方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00977397A JP3819096B2 (ja) | 1997-01-22 | 1997-01-22 | ユーザインタフェース装置及び操作範囲呈示方法 |
US09/009,696 US6266061B1 (en) | 1997-01-22 | 1998-01-20 | User interface apparatus and operation range presenting method |
US09/860,496 US20010024213A1 (en) | 1997-01-22 | 2001-05-21 | User interface apparatus and operation range presenting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00977397A JP3819096B2 (ja) | 1997-01-22 | 1997-01-22 | ユーザインタフェース装置及び操作範囲呈示方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005268978A Division JP2006018856A (ja) | 2005-09-15 | 2005-09-15 | ユーザインタフェース装置及び操作範囲呈示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10207619A true JPH10207619A (ja) | 1998-08-07 |
JP3819096B2 JP3819096B2 (ja) | 2006-09-06 |
Family
ID=11729580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP00977397A Expired - Fee Related JP3819096B2 (ja) | 1997-01-22 | 1997-01-22 | ユーザインタフェース装置及び操作範囲呈示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3819096B2 (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003070768A (ja) * | 2001-08-31 | 2003-03-11 | Itoki Crebio Corp | Vdt作業者の姿勢検出システム |
JP2008040576A (ja) * | 2006-08-02 | 2008-02-21 | Sharp Corp | 画像処理システム及び該システムを備えた映像表示装置 |
JP2008262569A (ja) * | 2008-04-18 | 2008-10-30 | Sony Corp | 画像表示装置および画像表示装置の駆動方法 |
JP2009031981A (ja) * | 2007-07-26 | 2009-02-12 | Mitsubishi Electric Corp | インタフェース装置、インタフェース方法及びインタフェースプログラム |
US20090077504A1 (en) * | 2007-09-14 | 2009-03-19 | Matthew Bell | Processing of Gesture-Based User Interactions |
JP2010067143A (ja) * | 2008-09-12 | 2010-03-25 | British Virgin Islands CyWee Group Ltd | グラフィカルユーザーインターフェースの操作/制御装置 |
EP2359916A1 (en) | 2010-01-27 | 2011-08-24 | NAMCO BANDAI Games Inc. | Display image generation device and display image generation method |
JP2011258157A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2011258161A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2012194883A (ja) * | 2011-03-17 | 2012-10-11 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
US8464160B2 (en) | 2008-09-29 | 2013-06-11 | Panasonic Corporation | User interface device, user interface method, and recording medium |
US8520901B2 (en) | 2010-06-11 | 2013-08-27 | Namco Bandai Games Inc. | Image generation system, image generation method, and information storage medium |
JP2013539565A (ja) * | 2010-06-22 | 2013-10-24 | マイクロソフト コーポレーション | ユーザー追跡フィードバック |
JP2013246743A (ja) * | 2012-05-29 | 2013-12-09 | Sony Corp | 画像処理装置、およびプログラム |
JP2015045805A (ja) * | 2013-08-29 | 2015-03-12 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US9229107B2 (en) | 2007-11-12 | 2016-01-05 | Intellectual Ventures Holding 81 Llc | Lens system |
US9247236B2 (en) | 2008-03-07 | 2016-01-26 | Intellectual Ventures Holdings 81 Llc | Display with built in 3D sensing capability and gesture control of TV |
JP2017102598A (ja) * | 2015-11-30 | 2017-06-08 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
JP2018163668A (ja) * | 2018-05-14 | 2018-10-18 | 株式会社ユピテル | 電子情報システム及びそのプログラム |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5116822A (ja) * | 1974-07-31 | 1976-02-10 | Matsushita Electric Ind Co Ltd | |
JPS56130608A (en) * | 1980-03-19 | 1981-10-13 | Ricoh Co Ltd | Range finding system |
JPS6268357U (ja) * | 1985-10-19 | 1987-04-28 | ||
JPS62190235U (ja) * | 1986-05-26 | 1987-12-03 | ||
JPH03177918A (ja) * | 1989-12-07 | 1991-08-01 | Mitsubishi Electric Corp | カーソル制御方式 |
JPH0757103A (ja) * | 1993-08-23 | 1995-03-03 | Toshiba Corp | 情報処理装置 |
JPH07160412A (ja) * | 1993-12-10 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | 指示位置検出方法 |
JPH07334299A (ja) * | 1994-04-13 | 1995-12-22 | Toshiba Corp | 情報入力装置 |
JPH0844490A (ja) * | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
JPH08240407A (ja) * | 1995-03-02 | 1996-09-17 | Matsushita Electric Ind Co Ltd | 位置検出入力装置 |
JPH08328735A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | ハンドポインティング入力装置 |
-
1997
- 1997-01-22 JP JP00977397A patent/JP3819096B2/ja not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5116822A (ja) * | 1974-07-31 | 1976-02-10 | Matsushita Electric Ind Co Ltd | |
JPS56130608A (en) * | 1980-03-19 | 1981-10-13 | Ricoh Co Ltd | Range finding system |
JPS6268357U (ja) * | 1985-10-19 | 1987-04-28 | ||
JPS62190235U (ja) * | 1986-05-26 | 1987-12-03 | ||
JPH03177918A (ja) * | 1989-12-07 | 1991-08-01 | Mitsubishi Electric Corp | カーソル制御方式 |
JPH0757103A (ja) * | 1993-08-23 | 1995-03-03 | Toshiba Corp | 情報処理装置 |
JPH07160412A (ja) * | 1993-12-10 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | 指示位置検出方法 |
JPH07334299A (ja) * | 1994-04-13 | 1995-12-22 | Toshiba Corp | 情報入力装置 |
JPH0844490A (ja) * | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
JPH08240407A (ja) * | 1995-03-02 | 1996-09-17 | Matsushita Electric Ind Co Ltd | 位置検出入力装置 |
JPH08328735A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | ハンドポインティング入力装置 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003070768A (ja) * | 2001-08-31 | 2003-03-11 | Itoki Crebio Corp | Vdt作業者の姿勢検出システム |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
JP2008040576A (ja) * | 2006-08-02 | 2008-02-21 | Sharp Corp | 画像処理システム及び該システムを備えた映像表示装置 |
JP2009031981A (ja) * | 2007-07-26 | 2009-02-12 | Mitsubishi Electric Corp | インタフェース装置、インタフェース方法及びインタフェースプログラム |
US10990189B2 (en) | 2007-09-14 | 2021-04-27 | Facebook, Inc. | Processing of gesture-based user interaction using volumetric zones |
US10564731B2 (en) | 2007-09-14 | 2020-02-18 | Facebook, Inc. | Processing of gesture-based user interactions using volumetric zones |
JP2010539590A (ja) * | 2007-09-14 | 2010-12-16 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
US20090077504A1 (en) * | 2007-09-14 | 2009-03-19 | Matthew Bell | Processing of Gesture-Based User Interactions |
US9058058B2 (en) | 2007-09-14 | 2015-06-16 | Intellectual Ventures Holding 67 Llc | Processing of gesture-based user interactions activation levels |
US9811166B2 (en) | 2007-09-14 | 2017-11-07 | Intellectual Ventures Holding 81 Llc | Processing of gesture-based user interactions using volumetric zones |
US8230367B2 (en) * | 2007-09-14 | 2012-07-24 | Intellectual Ventures Holding 67 Llc | Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones |
US9229107B2 (en) | 2007-11-12 | 2016-01-05 | Intellectual Ventures Holding 81 Llc | Lens system |
US10831278B2 (en) | 2008-03-07 | 2020-11-10 | Facebook, Inc. | Display with built in 3D sensing capability and gesture control of tv |
US9247236B2 (en) | 2008-03-07 | 2016-01-26 | Intellectual Ventures Holdings 81 Llc | Display with built in 3D sensing capability and gesture control of TV |
JP2008262569A (ja) * | 2008-04-18 | 2008-10-30 | Sony Corp | 画像表示装置および画像表示装置の駆動方法 |
JP2010067143A (ja) * | 2008-09-12 | 2010-03-25 | British Virgin Islands CyWee Group Ltd | グラフィカルユーザーインターフェースの操作/制御装置 |
US8464160B2 (en) | 2008-09-29 | 2013-06-11 | Panasonic Corporation | User interface device, user interface method, and recording medium |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
EP2359916A1 (en) | 2010-01-27 | 2011-08-24 | NAMCO BANDAI Games Inc. | Display image generation device and display image generation method |
US8854304B2 (en) | 2010-06-11 | 2014-10-07 | Namco Bandai Games Inc. | Image generation system, image generation method, and information storage medium |
US8520901B2 (en) | 2010-06-11 | 2013-08-27 | Namco Bandai Games Inc. | Image generation system, image generation method, and information storage medium |
JP2011258161A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2011258157A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2013539565A (ja) * | 2010-06-22 | 2013-10-24 | マイクロソフト コーポレーション | ユーザー追跡フィードバック |
JP2012194883A (ja) * | 2011-03-17 | 2012-10-11 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP2013246743A (ja) * | 2012-05-29 | 2013-12-09 | Sony Corp | 画像処理装置、およびプログラム |
US9704028B2 (en) | 2012-05-29 | 2017-07-11 | Sony Corporation | Image processing apparatus and program |
JP2015045805A (ja) * | 2013-08-29 | 2015-03-12 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
JP2017102598A (ja) * | 2015-11-30 | 2017-06-08 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
JP2018163668A (ja) * | 2018-05-14 | 2018-10-18 | 株式会社ユピテル | 電子情報システム及びそのプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3819096B2 (ja) | 2006-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH10207619A (ja) | ユーザインタフェース装置及び操作範囲呈示方法 | |
US6266061B1 (en) | User interface apparatus and operation range presenting method | |
US20090153468A1 (en) | Virtual Interface System | |
US8115732B2 (en) | Virtual controller for visual displays | |
US10268339B2 (en) | Enhanced camera-based input | |
US7454717B2 (en) | Delimiters for selection-action pen gesture phrases | |
US7342572B2 (en) | System and method for transforming an ordinary computer monitor into a touch screen | |
US7898522B2 (en) | Video-based image control system | |
US20170228138A1 (en) | System and method for spatial interaction for viewing and manipulating off-screen content | |
US20020126090A1 (en) | Navigating and selecting a portion of a screen by utilizing a state of an object as viewed by a camera | |
JP4688739B2 (ja) | 情報表示装置 | |
US20030071858A1 (en) | Information input and output system, method, storage medium, and carrier wave | |
US20070216642A1 (en) | System For 3D Rendering Applications Using Hands | |
CN108369630A (zh) | 用于智能家居的手势控制系统和方法 | |
JP2008052590A (ja) | インターフェース装置及びその方法 | |
US8166417B2 (en) | Display control apparatus and control method thereof | |
EP3136203B1 (en) | System and method of real-time interactive operation of user interface | |
US20070071319A1 (en) | Method, apparatus, and program for dividing images | |
Kjeldsen et al. | Design issues for vision-based computer interaction systems | |
Kjeldsen | Head gestures for computer control | |
Robinson et al. | The LivePaper system: augmenting paper on an enhanced tabletop | |
JP2006331119A (ja) | プレゼンテーションに用いられる情報処理装置およびプログラム | |
US20020051009A1 (en) | Method and apparatus for extracting object from video image | |
JP3588527B2 (ja) | ユーザインタフェース装置及び指示入力方法 | |
JP4979895B2 (ja) | ディスプレイ制御装置、ディスプレイ制御方法、ディスプレイ制御プログラム、およびディスプレイ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050915 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060614 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090623 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100623 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100623 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110623 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120623 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120623 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130623 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |