JP6146094B2 - 情報操作表示システム、表示プログラム、および、表示方法 - Google Patents

情報操作表示システム、表示プログラム、および、表示方法 Download PDF

Info

Publication number
JP6146094B2
JP6146094B2 JP2013077202A JP2013077202A JP6146094B2 JP 6146094 B2 JP6146094 B2 JP 6146094B2 JP 2013077202 A JP2013077202 A JP 2013077202A JP 2013077202 A JP2013077202 A JP 2013077202A JP 6146094 B2 JP6146094 B2 JP 6146094B2
Authority
JP
Japan
Prior art keywords
projector
display
operation target
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013077202A
Other languages
English (en)
Other versions
JP2014203174A (ja
Inventor
松田 高弘
高弘 松田
村瀬 太一
太一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013077202A priority Critical patent/JP6146094B2/ja
Priority to US14/224,487 priority patent/US20140292648A1/en
Priority to EP14161972.6A priority patent/EP2787416A1/en
Publication of JP2014203174A publication Critical patent/JP2014203174A/ja
Application granted granted Critical
Publication of JP6146094B2 publication Critical patent/JP6146094B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Description

本発明は、情報操作表示システム、表示プログラム、および、表示方法に関する。
近年、現実の物体にプロジェクタを使ってバーチャル画像を投影させ、現実の物体に関連付けられた注釈やメニューなどを提示する拡張現実技術が知られている。また、このような拡張現実技術において、手指などの操作対象物によるジェスチャを検出し、バーチャル画像などの被操作対象物とのインタラクションを実現するユーザインタフェース技術が利用されている。例えば、バーチャル画像などの被操作対象物の一部に指先で触れるジェスチャを行うことで、被操作対象物の一点を選択する指示を行うことができる。
P. Mistry, P. Maes,"Sixth Sense-A Wearable Gestural Interface." In the Proceedings of SIGGRAPH Asia 2009, Emerging Technologies. Yokohama, Japan. 2009
しかし、従来技術では、ユーザが行っている操作の状況をユーザ自身で把握し難く、意図していない入力や出力が装置側に認識されてしまう場合がある。例えば、手指を用いた操作では、細かい場所への指示を与えることが多く、指示している場所が少しでもずれて認識されると、何度もやり直しを行うこととなり、操作性が低下する。
一つの側面では、操作性を向上させる情報操作表示システム、表示プログラム、および、表示方法を提供することを目的とする。
一つの案の情報操作表示システムは、カメラとプロジェクタと情報処理装置とを有する情報操作表示システムであって、前記情報処理装置は、前記カメラにより撮像された撮影画像を取得する取得部と、前記取得部によって取得された前記撮影画像に含まれる操作対象物の3次元座標位置を計測する計測部と、前記計測部によって計測された前記3次元座標位置に応じて、前記操作対象物により選択操作が行われている箇所を示す画像を被操作対象物に表示するように前記プロジェクタを制御する表示部と、を有する。前記操作対象物による前記選択操作は、前記プロジェクタと前記被操作対象物との空間で行われる。前記表示部は、前記計測部によって計測された前記3次元座標位置に応じて、前記操作対象物と前記被操作対象物との距離に比例して増加するオフセット量を算出し、前記操作対象物と前記被操作対象物との距離が遠いほど、前記計測部によって計測された前記3次元座標位置から前記画像を前記オフセット量によりずらして前記被操作対象物に表示するように前記プロジェクタを制御するまた、前記計測部は、前記操作対象物が前記被操作対象物に接触したか否かを判定する。前記表示部は、前記計測部が前記操作対象物と前記被操作対象物との接触を判定した場合、前記画像を前記操作対象物に重ねて表示するように前記プロジェクタを制御する。
一実施形態によれば、操作性を向上させることができる。
図1は、情報操作表示システムの全体の概略構成の一例を示す図である。 図2は、実施例1に係る情報処理装置の全体構成を示す図である。 図3は、作業面の3次元構造を表すデータ例を示す図である。 図4は、指の座標を表すデータ例を示す図である。 図5は、指の深度を表すデータ例を示す図である。 図6Aは、選択箇所の表示処理を説明する図である。 図6Bは、選択箇所の表示処理を説明する図である。 図7は、操作者が想定したタッチ位置と装置が検出したタッチ位置とのずれについて説明する図である。 図8は、指先で選択位置が隠れる場合について説明する図である。 図9は、手指をY方向に移動した場合のアラート線の表示を示す図である。 図10は、実施例1に係る情報処理装置による、選択位置表示処理の手順を示すフローチャートである。 図11は、実施例2に係る情報処理装置の全体構成を示す図である。 図12は、指の静止を指示する表示処理について説明する図である。 図13は、コピー処理完了を示す重畳表示と画像の移動アニメーション表示を示す図である。 図14は、実施例2に係る情報処理装置による、指先の静止指示とコピー選択処理の手順を示すフローチャートである。 図15は、表示プログラムを実行するコンピュータを示す図である。
以下に、本願の開示する情報操作表示システム、表示プログラム、および、表示方法の実施例を、図面に基づいて詳細に説明する。なお、この実施例により開示技術が限定されるものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[情報操作表示システムの構成]
図1は、情報操作表示システムの全体の概略構成の一例を示す図である。図1に示すように、情報操作表示システム100は、カメラ1、2と、プロジェクタ(表示装置)3と、情報処理装置10とを有する。情報処理装置10は、カメラ1、2およびプロジェクタ3とネットワーク(図示省略)を介して通信可能に接続される。プロジェクタ3は、所定の投影面上にバーチャル画像を投影する。カメラ1、2は、投影面上に投影された画像と該画像上に置かれた操作対象物(例えば、操作者の手や指)との画像を撮影する。
この情報操作表示システム100では、プロジェクタ3を投影するための投影面を持ち、投影面上を作業面とすることで作業環境上にバーチャル画像を投影する。プロジェクタと二台のカメラ1、2は、投影面の上方部に、鉛直下向きの方向で設置されている。二台のカメラ1、2は、内部パラメータが等しく既知であり、互いの光軸が平行で、かつ画像中の横軸が同一直線状上になるように配置される。このカメラ1、2により投影面や作業面上の色情報、深度が取得される。またプロジェクタ3によりバーチャル画像が作業面上に投影される。使用者は、ある一方向から手を作業面上に出しインタラクションを行う。
また、情報処理装置10は、カメラ1、2により撮影された時系列の画像から、操作対象物の三次元位置を算出する。そして、情報処理装置10は、算出された操作対象物の三次元位置に基づき、ドキュメントなどの被操作対象物に対する操作を判断する。例えば、情報処理装置10は、ドキュメントのどの情報がタッチ(選択)されたのか、またタッチ(選択)が解除されたのかなどを判断する。なお、カメラ1、2やプロジェクタ3への接続に用いられるネットワークは、有線または無線を問わず、Local Area Network(LAN)やVirtual Private Network(VPN)などの任意の通信網が挙げられる。
また、カメラ1、2のシャッタータイミングは必ずしも同じでなくてもよい。つまり、カメラ1、2は非同期カメラであってよい。さらに、情報操作表示システム100は、カメラを3台以上有していてもよい。また、プロジェクタ3と、情報処理装置10とはネットワークを介して接続されるものとしたが、接続されていなくてもよい。なお、カメラ1、2による撮影の対象物は、投影されたドキュメントの操作者の手や指である場合を例に説明するが、これに限定されない。例えば、対象物は、ペンや棒などであってもよい。
また、情報操作表示システム100では、あらかじめカメラ1、2の認識座標系とプロジェクタ3の表示座標系の間の位置合わせ(キャリブレーション)を行う。情報操作表示システム100では、カメラ1、2とプロジェクタ3の位置関係が変化するたびに、キャリブレーションを一回行う。具体的なキャリブレーションの方法について、プロジェクタ3の出力画像をカメラ1、2で読み取ることで、システム内部でキャリブレーションを実行する方法を説明する。なお、キャリブレーションの方法は、この方法に限らない。また、情報操作表示システム100では、2台のカメラそれぞれについて、キャリブレーションを実行する。
はじめに、情報操作表示システム100では、プロジェクタ3の表示座標系において、ある任意の座標値(x_p,y_p)にマーカを表示させる。このマーカは、周囲の背景と区別しやすいような任意の色・形状が可能である。そして、カメラ1、2は、投影面に投影させた状況を撮影する。続いて、情報処理装置10は、マーカを画像処理手法によって読み取る。マーカに円形の模様を用いたときは、例えば「Kimmeら、”Finding circles by an array of accumulators”, Communications of the Association for Computing Machinery”, #18, pp.120-122, 1975.」に開示されるハフ円変換により円形状を読み取るようにすればよい。そして、読み取った際の座標値を(x_i,y_i)とする。
情報処理装置10は、上記したマーカを読み取る処理を任意の場所で4点分繰り返す。そして、情報処理装置10は、このようにして得られた(x_p,y_p)に対応する(x_i,y_i)の組4組から、3行3列のホモグラフィ行列Hの各成分を8次元連立一次方程式で求める。ここでホモグラフィ行列Hとは、三次元空間上のある平面から別の平面への射影変換を表す行列である。ここではカメラ座標平面とプロジェクタ座標平面との対応付けを求める。そして、情報処理装置10は、以上のようにして求めたホモグラフィ行列を保存しておき、バーチャル画像の投影時に利用する。
[情報処理装置の構成]
次に、図2を用いて、実施例1にかかる情報処理装置10について説明する。図2は、実施例1に係る情報処理装置の全体構成を示す図である。図2に示すように、情報処理装置10は、通信I/F(インタフェース)部11と、表示部12と、入力部13と、記憶部14と、制御部15とを有する。
通信I/F部11は、他の装置との間で通信制御を行うインタフェースである。通信I/F部11は、ネットワークを介して各種情報を受信する。例えば、通信I/F部11は、カメラ1、2からドキュメントや操作対象物を撮影した画像を受信する。かかる通信I/F部11の一態様としては、LANカードなどのネットワークインタフェースカードが挙げられる。
表示部12は、各種情報を表示する表示デバイスである。例えば、表示部12としては、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)などの表示デバイスが挙げられる。表示部12は、各種情報を表示する。例えば、表示部12は、記憶部14に格納される各情報を表示する。
入力部13は、各種の情報を入力する入力デバイスである。例えば、入力部13としては、マウス、キーボード、タッチセンサなどの入力デバイスが挙げられる。入力部13は、情報処理装置10のユーザから入力された情報を制御部15へ出力する。例えば、入力部13は、後記する、作業面座標情報141、手指座標情報142、表示情報143などの元となる情報を受け付けると、制御部15へ出力し、制御部15経由で記憶部14に記憶させる。
記憶部14は、ハードディスク、SSD(Solid State Drive)、光ディスクなどの不揮発性の記憶装置である。なお、記憶部14は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。
記憶部14は、制御部15で実行されるOS(Operating System)や各種プログラムを記憶する。また、記憶部14は、プログラムで用いられる各種データやプログラムにより生成された各種データを記憶する。例えば、記憶部14は、作業面座標情報141と、手指座標情報142と、表示情報143とを記憶する。
作業面座標情報141は、作業面の三次元形状に関する情報を記憶する。例えば、作業面座標情報141は、図3のテーブルに例示されるように、作業面の3次元直交座標として、任意の基準点に対する各画素の座標と、深度の座標とが対応付けられた情報である。
この作業面座標情報141は、あらかじめ取得され、記憶された情報である。例えば、情報処理装置10は、作業面座標情報141を取得する方法として、アクティブステレオ法と呼ばれる方法により作業面の三次元形状を事前に取得する。アクティブステレオ法では、物体にプロジェクタ3により既定のパターンを投影し、カメラ1、2で投影パターンの変化を計測することで、物体の三次元形状を取得する方法である。
アクティブステレオ法には、様々な種類があるが、ここでは一例として、例えば、特開昭60−152903号公報に記載の空間コード法を用いる。しかし、実現の方法は空間コード法に限らない。この空間コード法では、プロジェクタ3における全画素の座標をIDとして明暗をパターン化し複数回投影する。その結果を用い、三角測量によりプロジェクタ3の各画素に対する深度[m]を得る。
手指座標情報142は、計測部152によって計測された操作対象物である手指の3次元座標位置に関する情報である。手指座標情報142は、図4のテーブルに例示されるように、5本の指を識別するために付与された番号である「指No.」と、各指の座標を示す「指の座標」とが対応付けられた情報である。この例では片手で手を広げた場合における、二つのカメラ1、2それぞれでの各指の先端部の座標が単位:pixelで表されている。なお、指の押下の際は最低限一本の指が認識できれば後の処理が可能である。
例えば、手指座標情報142は、ユーザが片手で指を広げた場合における、2台のカメラ1、2それぞれが撮像する画像から算出される各指先の指先座標が、指先IDと対応付けられて格納される。指先IDは、例えば、横方向の座標の小さい順に付与されればよい。なお、各指先画素の座標の基準点は、例えば、画像の左上端と規定することができる。
また、手指座標情報142は、図5のテーブルに例示されるように、「指No.」と、ユーザの指先の深度を示す「深度」とが対応付けられた情報である。例えば、図5のテーブルにおいて、指先IDは、図4のテーブルの指先IDと同一のIDが付与され、各指先IDに対応する深度が格納される。
表示情報143は、プロジェクタ3により表示される、手指により選択操作が行われている箇所を示す画像に関する情報を記憶する。表示情報143は、表示部153が手指により選択操作が行われている箇所を示す画像を表示する際に参照される情報である。
制御部15は、情報処理装置10を制御するデバイスである。制御部15としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部15は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。例えば、制御部15は、各種のプログラムが動作しており、各種の処理部として機能する。制御部15は、取得部151と、計測部152と、表示部153とを有する。
取得部151は、カメラ1、2により撮像された撮影画像を取得する。例えば、取得部151は、毎秒所定回(例えば、60回)2台のカメラ1、2からの画像を取得する。
次に、取得部151は、取得されたそれぞれの画像に対して、手指の位置検出を行う。手指の位置を検出する方法は、例えば、特開2003−346162号公報に記載された、画像処理により画像のみから手指位置を推定する手法を用いてもよい。
また、情報処理装置10では、あらかじめ手の形状に関する学習データを保持しておき、現時点での画像と学習データの間の類似度を計算して手指形状を推定する方法を用いてよい。なお、現時点での画像と学習データの間の類似度を計算して手指形状を推定する方法については、例えば、「山下ら、『3次元Active Appearance Modelを用いた手形状認識』画像の認識・理解シンポジウム、MIRU2012, IS3-70, 2012-08」に記載されている。以下では、画像処理により画像のみから手指位置を推定する手法を用いて以降の説明を行う。この方法では、入力画像から肌色部分を抜き出し手領域を抽出する。その後、手の本数を認識し、手領域の輪郭から指先座標の推定を行う。
次に、取得部151は、手指の有無の判定を行う。ここでは、手指の位置検出の出力データが存在するか否かをチェックし、もし出力データが無い場合、前フレームのバーチャル画像を同じ場所に表示することで現フレームの処理を終える。
計測部152は、取得部151によって取得された撮影画像に含まれる操作対象物の3次元座標位置を計測する。例えば、計測部152は、操作対象物として、手指の3次元座標位置を算出する。ここではステレオカメラによる手指の座標算出について説明する。計測部152は、三角測量の原理により、3次元空間の奥行き方向の深度Zについて、二台のカメラの間の線分の長さ(基線長)をb、カメラの焦点距離をf、左右の対応する二次元座標をそれぞれ(u,v),(u’,v’)として、以下の(1)式で求める。なお、3次元空間の奥行き方向の深度Zの算出方法については、例えば「『ディジタル画像処理』CG-ARTS協会編、pp.259」に記載されている。
Figure 0006146094
そして、計測部152は、(1)式を用いて、各指の頂点部分の深度を推定する。また、計測部152は、左右のカメラ1、2で横方向の座標の小さい順に、指先部分に番号を振る。そして、計測部152は、番号の同じ指先点同士を対応点と見なし、それぞれの対応点について上式に代入してZを得る。計測部152は、推定された手指の深度を記憶部14に格納する。なお、fを算出するためのカメラの内部パラメータ推定には、例えば、「Zhangら、”A flexible new technique for camera calibration”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11), pp.1330-1334, 2000.」に記載のキャリブレーション方法を用いることができる。
次に、計測部152は、押下判定を行う。ここでは、指の作業面との接触を検知することで押下判定を行う例を挙げる。あらかじめ前述のように、実行開始時にアクティブステレオ法により作業面の深度を計測しておき、計測部152は、指の深度がドキュメント面の深度に対する閾値範囲内に収まっているときに押下されたことを検知する。複数の指の深度が閾値範囲内に収まっている場合は、複数の指が押下しているものとみなす。また、複数の指の深度が閾値範囲内に収まっていない場合、前フレームのバーチャル画像を同じ場所に表示することで現フレームの処理を終える。
表示部153は、計測部152によって計測された手指の3次元座標位置に応じて、手指により選択操作が行われている箇所を示す選択位置確認画像をバーチャル画像が投影された被操作対象物に表示するようにプロジェクタ3を制御する。
表示部153は、指が空中に浮いている状態から、作業面の選択位置を示す選択位置確認画像を表示する。例えば、図6A、図6Bの例では、指先の検出位置を作業面に中心点として投影し、その周囲に円の大きさで作業面から指の高さを示している。図6Aの例では、指先が作業面から遠いため、円を大きく表示している。また、図6Bの例では、指先が作業面から近いため、円を小さく表示している。このため、使用者は、中心点を目的の指示位置に合せながら作業面に触れることで正確に作業位置を指示できる。
つまり、従来では、例えば、図7に例示するように、使用者がA点で指示しているつもりであるが、装置側はB点を指示された点として認識しており、数ミリから1センチ程度のずれが発生することがあった。使用者は、自分の意図した位置が指示できていないことを、コピーされた画像などを見て確認し、再度位置を指示し直すという作業を繰り返し、最終的に意図したコピー結果を得る。こうした意図のずれた操作は、使い勝手を大きく損ない、作業効率を低下させていた。このため、情報操作表示システム100では、装置が使用者の指の検出結果を使用者に可視化して示すことで、使用者の意図と装置検出結果のずれを低減させることができ、作業効率を向上させることができる。
表示部153は、表示場所に関しては、あらかじめ得られているカメラ認識座標系とプロジェクタ3の表示座標系との間のホモグラフィ行列から、以下の(2)式および(3)式により選択位置確認画像を投影するプロジェクタ平面中の座標を決定する。(x_src,y_src)をカメラ認識座標系での表示位置の中心座標、(x_dst,y_dst)をプロジェクタ3表示座標系での表示位置の中心座標とする。またh_11からh_33までの各成分は、上記キャリブレーションで得られているホモグラフィ行列の逆行列H^−1である。指の座標は、図4に例示した情報を用い、深度に応じて、選択位置確認画像の輪郭形状を変更させて表示する。例えば、図6A、図6Bに例示するように円の大きさを変化させる。
Figure 0006146094
Figure 0006146094
ここで、深度に応じて円の大きさを決定する方法を以下に示す。表示部153は、作業面の深度をL、指先の深度をZとして、円の半径rを式「r=α(L−Z)+b」により求める。α、bは、任意の値を設定可能である。また、指先が作業面に触れると、r=bとなる。
また、指先の深度に応じた選択位置確認画像の表示方法は、円に限らない。例他の例としては、深度に応じて明度を変化させ、遠いほど暗く、近いほど明るく表示してもよい。また、他の例としては、深度に応じて色を変化させ、遠いほど赤く、近いほど青く表示してもよい。
ここで、図8に例示するように、プロジェクタ3の光が指先で隠れ作業面に選択位置を表示できないケースが発生する場合がある。特に中心点を表示できない場合は、選択位置が分からなくなってしまう。これは、選択位置を指先の少し内側に設定した場合の他、指が速く動いた場合に、表示の追従が遅れた場合にも発生する。また、指先検出の誤差等によっても発生する可能性がある。
そこで、指先が空中に浮いている間は確実に選択位置が表示されるように、表示位置にオフセットをかけて位置をずらし、指先で隠れないようにすることが可能である。表示部153は、作業面に近づいたときにオフセットがあると、間違った位置を選択するため、指先の深度によってオフセットを変化させ、作業面に近いほどオフセットを小さく表示する。
例えば、1例として、Y座標方向にオフセットを与える場合、作業面の深度をL、指先の深度をZとして、オフセット量Yosを式「Yos=α(L−Z)+b」により算出する。ここでα、bは、任意の値を設定可能であり、b=0とすると指先が作業面に触れた場合にオフセットがゼロとなる。
オフセットにより改善された結果を図9に示す。オフセット量の一例としては、選択位置を表示する円の半径(r)である。指先の深度に応じて、円の大きさ、オフセット量が変化する。深度が大きいほど、円の半径、オフセット量も大きくなる。これにより、円全体および中心点も常に表示され利用者は選択位置を認識しやすくなる。
[情報処理装置による処理]
次に、図10を用いて、実施例1に係る情報処理装置10による処理を説明する。図10は、実施例1に係る情報処理装置による、選択位置表示処理の手順を示すフローチャートである。
図14に示すように、情報処理装置10の取得部151は、カメラ1、2により撮像された撮影画像を取得する(ステップS101)。例えば、取得部151は、毎秒60回、2台のカメラ1、2からの画像を取得する。続いて、取得部151は、撮影画像の中から手指領域のみを検出する。
そして、取得部151は、撮影画像の中から手指領域のみを抽出する(ステップS102)。例えば、取得部151は、画像における各画素の色情報、および抽出するための色に関する条件に基づき、肌色領域を検出し、撮影画像の中から手指領域のみを抽出する。
そして、取得部151は、手指の位置検出の出力データの有無を判定する(ステップS103)。この結果、取得部151によって手指の出力データがないと判定された場合には(ステップS103否定)、ステップS106の処理に移る。この場合には、表示部153は、現フレームの処理として、前フレームのバーチャル画像を同じ場所に表示する表示更新処理を行う(ステップS106)。
また、取得部151によって手指の出力データがあると判定した場合には(ステップS103肯定)、計測部152は、手指の3次元座標を算出する(ステップS104)。そして、表示部153は、手指により選択操作が行われている箇所を示す選択位置確認画像を被操作対象物に重畳表示する位置を決定する(ステップS105)。例えば、表示部153は、表示場所に関しては、あらかじめ得られているカメラ認識座標系とプロジェクタ3の表示座標系との間のホモグラフィ行列から、上記した(2)式および(3)式により選択位置確認画像を投影するプロジェクタ平面中の座標を決定する。
そして、表示部153は、選択位置確認画像を被操作対象物に重畳表示する位置を決定すると、該位置に選択位置確認画像を表示する表示更新処理を行う(ステップS106)。続いて、計測部152は、押下判定を行う(ステップS107)。例えば、計測部152は、指の作業面との接触を検知することで押下判定を行う。
この結果、計測部152は、押下が検出されなかったと判定した場合には(ステップS107否定)、ステップS101の処理に戻る。また、計測部152は、押下が検出されたと判定した場合には(ステップS107肯定)、一定時間手指が静止したか判定する(ステップS108)。この結果、計測部152は、一定時間手指が静止しなかったと判定した場合には(ステップS108否定)、ステップS101の処理に戻る。また、計測部152は、一定時間手指が静止したと判定した場合には(ステップS108肯定)、指先にピッタリ重なるように選択位置確認画像が移動するようにプロジェクタ3に表示させる(ステップS109)。なお、選択位置確認画像が移動する際に、「ピッ」という音を出力してもよい。その後、計測部152は、手指のジェスチャから操作内容を検出し(ステップS110)、処理を終了する。
[実施例1の効果]
上述してきたように、情報操作表示システム100は、カメラ1、2とプロジェクタ3と情報処理装置10とを有する。情報処理装置10は、カメラ1、2により撮像された撮影画像を取得し、取得された撮影画像に含まれる手指の3次元座標位置を計測する。そして、情報処理装置10は、計測された手指の3次元座標位置に応じて、手指により選択操作が行われている箇所を示す選択位置確認画像を被操作対象物に表示するようにプロジェクタ3を制御する。このため、使用者の意図と違う入力を低減し、操作ミスの低減や操作性の向上を図ることが可能である。
また、情報処理装置10は、手指と被操作対象物との距離に応じて、選択位置確認画像の輪郭形状を変更させて被操作対象物に表示するようにプロジェクタ3を制御する。このため、使用者は、中心点を目的の指示位置に合せながら作業面に触れることで正確に作業位置を指示することが可能である。
また、情報処理装置10は、手指と被操作対象物との距離に応じて、選択位置確認画像の明度を変更させて被操作対象物に表示するようにプロジェクタ3を制御する。このため、操作者に対して選択位置確認画像を視認しやすくすることができ、正確に作業位置を指示することが可能である。
また、情報処理装置10は、手指と被操作対象物との距離に応じて、選択位置確認画像の色を変更させて被操作対象物に表示するようにプロジェクタ3を制御する。このため、操作者に対して選択位置確認画像を視認しやすくすることができ、正確に作業位置を指示することが可能である。
また、情報処理装置10は、手指と被操作対象物との距離が遠いほど、計測された3次元座標位置から離れた位置に選択位置確認画像を表示する。また、情報処理装置10は、手指と被操作対象物との距離が近くなるほど、3次元座標位置から近い位置に選択位置確認画像を表示するようにプロジェクタ3を制御する。これにより、プロジェクタ3の光が指先で隠れ作業面に選択位置確認画像を表示できなくなることを防止し、円全体および中心点も常に表示され利用者は選択位置を認識しやすくすることが可能である。
ところで、上記の実施例1では、指が空中に浮いている状態から、作業面の選択位置を示す選択位置確認画像を表示することで、正確に作業位置を指示できる場合を説明したが、実施例は、これに限定されるものではない。例えば、情報処理装置は、手指の静止状態を検知し、該静止状態から被操作対象物への操作開始または操作終了の指示を検出し、静止状態が検出されている間に、手指の静止を指示する情報を報知してもよい。
従来では、例えば、コピー範囲を指定する場合に、指先の深度と作業面の深度が閾値以下となったときに、コピー範囲指定の開始位置を決定し、閾値以上となったときに終了を決定していた。しかし実際には、深度の検出精度が十分でない場合には、閾値を大きくする必要があり、一例としては5mmほどとなる。その場合は、深度に加え、指先のX座標、Y座標の動きを監視し、指先が一定時間静止した状態と深度の閾値とを組み合せて接触状態、つまり押下操作を検出する。
しかし使用者が、指先を静止される時間を把握していない場合には、使用者は押下したつもりでも、装置は押下を検出していないと判断し、使用者は結果を見ながら何度も、同じ動作を繰り返す場合がある。そこで、装置が押下を判断した結果や、判断するまでに必要な時間を作業面に表示して、使用者に一定時間、指先の静止を促すことが有効である。
そこで、以下の実施例2では、静止状態が検出されている間に、手指の静止を指示する情報を報知場合として、図11〜図14を用いて、実施例2における情報操作表示システム100Aの構成と処理について説明する。
まず、図11を用いて、実施例2における情報操作表示システム100Aの情報処理装置10Aの構成について、図2に示した情報処理装置10と比較して説明する。情報処理装置10Aは、図2に示した情報処理装置10と比較して、検出部154を有する点が相違する。かかる情報処理装置10Aにおいて、検出部154は、計測部152によって計測された操作対象物の3次元座標位置を用いて、手指の静止状態を検知し、該静止状態から被操作対象物への操作開始または操作終了の指示を検出する。
表示部153は、検出部154によって静止状態が検出されている間に、手指の静止を指示する情報を報知するようにプロジェクタ3を制御する。また、表示部153は、手指の静止を指示する情報として、静止状態が完了するまでの進行状況を示す情報を報知するようにプロジェクタ3を制御する。
ここで、図12を用いて、指の静止を指示する表示処理について説明する。図12は、指の静止を指示する表示処理について説明する図である。図12に示すように、使用者の操作としては、コピー範囲を指定するため、開始位置で指先を使って押下し、矩形の対角線で終了位置を指定し指を外す。そこで、表示部153は、開始位置において、押下を検出までの一定時間経過後に、押下を検出した旨を表す画像を表示する。例えば、表示部153は、図12に例示するように、「COPY」という文字を表示するようにプロジェクタ3を制御する。
また、図12に例示するように、終了位置に到達したら、静止を促すための経過表示を行う。例えば、表示部153は、図12に例示するように、選択領域の開始位置から終了位置までを数秒かけて重畳表示で塗りつぶす表示を行うようにプロジェクタ3を制御する。
また、表示部153は、図13に例示するように、塗りつぶしの完了が検出完了した場合には、完了した旨を示すために、コピーした画像をコピー元に重畳表示し、保存領域に移動するアニメーション表示を行うようにプロジェクタ3を制御する。図13は、コピー処理完了を示す重畳表示と画像の移動アニメーション表示を示す図である。
次に、図14を用いて、実施例2にかかる情報処理装置10Aによる、指先の静止指示とコピー選択処理について説明する。図14は、実施例2に係る情報処理装置による、指先の静止指示とコピー選択処理の手順を示すフローチャートである。
まず、情報処理装置10Aは、手指による押下を検出すると(ステップS201)、手指が一定時間静止したか否かを判定する(ステップS202)。この結果、情報処理装置10Aは、一定時間静止していないと判定した場合には(ステップS202否定)、そのまま処理を終了する。また、情報処理装置10Aは、一定時間静止した場合には(ステップS202肯定)、始点、すなわち押下を検出した旨を表す画像を表示する(ステップS203)。例えば、情報処理装置10Aは、図12に例示するように、「COPY」という文字を表示するようにプロジェクタ3を制御する。
そして、情報処理装置10Aは、指先の移動を検出すると(ステップS204)、指先の静止を検出したか否かを判定する(ステップS205)。この結果、情報処理装置10Aは、指先の静止を検出しなかった場合には(ステップS205否定)、処理を終了する。一方、情報処理装置10Aは、指先の静止を検出した場合には(ステップS205肯定)、塗りつぶし表示を更新する(ステップS206)。例えば、情報処理装置10Aは、選択領域の開始位置から終了位置までを数秒かけて重畳表示で塗りつぶす表示を行うようにプロジェクタ3を制御する。
そして、情報処理装置10Aは、塗りつぶしが終点位置に到達したか否かを判定する(ステップS207)。この結果、情報処理装置10Aは、塗りつぶしが終点位置に到達しなかった場合には(ステップS207否定)、ステップS205の処理に戻る。また、情報処理装置10Aは、塗りつぶしが終点位置に到達した場合には(ステップS207肯定)、コピー画像の重畳表示を行うようにプロジェクタ3を制御する(ステップS208)。そして、情報処理装置10Aは、コピー画像の移動アニメーションを表示する(ステップS209)。例えば、情報処理装置10Aは、コピーした画像をコピー元に重畳表示し、保存領域に移動するアニメーション表示を行うようにプロジェクタ3を制御する。
このように実施例2によれば、情報操作表示システム100Aは、カメラとプロジェクタと情報処理装置とを有する。情報処理装置10Aは、カメラ1、2により撮像された撮影画像を取得し、取得された撮影画像に含まれる操作対象物の3次元座標位置を計測する。そして、情報処理装置10Aは、計測された操作対象物の3次元座標位置を用いて、手指の静止状態を検知し、該静止状態から被操作対象物への操作開始または操作終了の指示を検出する。そして、情報処理装置10Aは、静止状態が検出されている間に、手指の静止を指示する情報を報知するようにプロジェクタ3を制御する。このため、使用者に一定時間、指先の静止を適切に促すことが可能である。
また、実施例2によれば、情報処理装置10Aは、手指の静止を指示する情報として、静止状態が完了するまでの進行状況を示す情報を報知するようにプロジェクタ3を制御する。このため、使用者に指先の静止を促しつつ、静止状態が完了するまでの進行状況を報知することが可能である。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示す取得部151、計測部152、表示部153の各処理部が適宜統合または分割されてもよい。また、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[プログラム]
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。図15は、表示プログラムを実行するコンピュータを示す図である。
図15に示すように、コンピュータ300は、CPU310、ROM(Read Only Memory)320、HDD(Hard Disk Drive)330、RAM(Random Access Memory)340を有する。これら310〜340の各部は、バス400を介して接続される。
ROM320には上記実施例の各処理部と同様の機能を発揮する表示プログラム320aが予め記憶される。例えば、上記実施例の制御部15同様の機能を発揮する表示プログラム320aを記憶させる。なお、表示プログラム320aについては、適宜分離しても良い。
HDD330には、各種データを記憶する。例えば、HDD330は、OSや各種データを記憶する。
そして、CPU310が、表示プログラム320aをROM320から読み出して実行することで、実施例の各処理部と同様の動作を実行する。すなわち、表示プログラム320aは、実施例の制御部15と同様の動作を実行する。
なお、上記した表示プログラム320aについては、必ずしも最初からROM320に記憶させることを要しない。表示プログラム320aはHDD330に記憶させてもよい。
例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
1、2 カメラ
3 プロジェクタ
10 情報処理装置
11 通信I/F部
12 表示部
13 入力部
14 記憶部
15 制御部
100 情報操作表示システム
141 作業面座標情報
142 手指座標情報
143 表示情報
151 取得部
152 計側部
153 表示部
154 検出部

Claims (9)

  1. カメラとプロジェクタと情報処理装置とを有する情報操作表示システムであって、
    前記情報処理装置は、
    前記カメラにより撮像された撮影画像を取得する取得部と、
    前記取得部によって取得された前記撮影画像に含まれる操作対象物の3次元座標位置を計測する計測部と、
    前記計測部によって計測された前記3次元座標位置に応じて、前記操作対象物により選択操作が行われている箇所を示す画像を被操作対象物に表示するように前記プロジェクタを制御する表示部と、
    を有し、
    前記操作対象物による前記選択操作は、前記プロジェクタと前記被操作対象物との空間で行われ、
    前記表示部は、
    前記計測部によって計測された前記3次元座標位置に応じて、前記操作対象物と前記被操作対象物との距離に比例して増加するオフセット量を算出し、
    前記操作対象物と前記被操作対象物との距離が遠いほど、前記計測部によって計測された前記3次元座標位置から前記画像を前記オフセット量によりずらして前記被操作対象物に表示するように前記プロジェクタを制御し、
    前記計測部は、前記操作対象物が前記被操作対象物に接触したか否かを判定し、
    前記表示部は、前記計測部が前記操作対象物と前記被操作対象物との接触を判定した場合、前記画像を前記操作対象物に重ねて表示するように前記プロジェクタを制御することを特徴とする情報操作表示システム。
  2. 前記表示部は、前記操作対象物と前記被操作対象物との距離に応じて、前記画像の輪郭形状を変更させて前記被操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項に記載の情報操作表示システム。
  3. 前記表示部は、前記操作対象物と前記被操作対象物との距離に応じて、前記画像の明度を変更させて前記被操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項に記載の情報操作表示システム。
  4. 前記表示部は、前記操作対象物と前記被操作対象物との距離に応じて、前記画像の色を変更させて前記被操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項に記載の情報操作表示システム。
  5. カメラとプロジェクタと情報処理装置とを有する情報操作表示システムであって、
    前記情報処理装置は、
    前記カメラにより撮像された撮影画像を取得する取得部と、
    前記取得部によって取得された前記撮影画像に含まれる操作対象物の3次元座標位置を計測する計測部と、
    前記計測部によって計測された前記3次元座標位置を用いて、前記操作対象物の静止状態を検知し、該静止状態から被操作対象物への操作開始および操作終了の位置を検出する検出部と、
    前記検出部によって静止状態が検出されている間に、前記操作対象物の静止を指示する情報を報知するように前記プロジェクタを制御する表示部と、
    を有し、
    前記表示部は、前記検出部によって検出された前記操作開始の位置および前記操作終了の位置に応じて、前記操作開始の位置から前記操作終了の位置までの選択領域を前記被操作対象物に表示するように前記プロジェクタを制御することを特徴とする情報操作表示システム。
  6. 前記選択領域は矩形であり、前記操作終了の位置は、前記操作開始の位置から対角線上で指定されることを特徴とする請求項に記載の情報操作表示システム。
  7. 前記表示部は、前記操作対象物の静止を指示する情報として、静止状態が完了するまでの進行状況を示す情報を報知するように前記プロジェクタを制御することを特徴とする請求項またはに記載の情報操作表示システム。
  8. コンピュータに、
    カメラにより撮像された撮影画像を取得し、
    前記撮影画像に含まれる操作対象物の3次元座標位置を計測し、
    前記3次元座標位置に応じて、前記操作対象物により選択操作が行われている箇所を示す画像を被操作対象物に表示するようにプロジェクタを制御する
    処理を実行させ、
    前記操作対象物による前記選択操作は、前記プロジェクタと前記被操作対象物との空間で行われ、
    前記プロジェクタを制御する処理は、
    前記3次元座標位置に応じて、前記操作対象物と前記被操作対象物との距離に比例して増加するオフセット量を算出し、
    前記操作対象物と前記被操作対象物との距離が遠いほど、前記3次元座標位置から前記画像を前記オフセット量によりずらして前記被操作対象物に表示するように前記プロジェクタを制御し、
    前記計測する処理は、前記操作対象物が前記被操作対象物に接触したか否かを判定し、
    前記プロジェクタを制御する処理は、前記計測部が前記操作対象物と前記被操作対象物との接触を判定した場合、前記画像を前記操作対象物に重ねて表示するように前記プロジェクタを制御することを特徴とする表示プログラム。
  9. コンピュータが、
    カメラにより撮像された撮影画像を取得し、
    前記撮影画像に含まれる操作対象物の3次元座標位置を計測し、
    前記3次元座標位置に応じて、前記操作対象物により選択操作が行われている箇所を示す画像を被操作対象物に表示するようにプロジェクタを制御する
    処理を実行し、
    前記操作対象物による前記選択操作は、前記プロジェクタと前記被操作対象物との空間で行われ、
    前記プロジェクタを制御する処理は、
    前記3次元座標位置に応じて、前記操作対象物と前記被操作対象物との距離に比例して増加するオフセット量を算出し、
    前記操作対象物と前記被操作対象物との距離が遠いほど、前記3次元座標位置から前記画像を前記オフセット量によりずらして前記被操作対象物に表示するように前記プロジェクタを制御し、
    前記計測する処理は、前記操作対象物が前記被操作対象物に接触したか否かを判定し、
    前記プロジェクタを制御する処理は、前記計測部が前記操作対象物と前記被操作対象物との接触を判定した場合、前記画像を前記操作対象物に重ねて表示するように前記プロジェクタを制御することを特徴とする表示方法。
JP2013077202A 2013-04-02 2013-04-02 情報操作表示システム、表示プログラム、および、表示方法 Active JP6146094B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013077202A JP6146094B2 (ja) 2013-04-02 2013-04-02 情報操作表示システム、表示プログラム、および、表示方法
US14/224,487 US20140292648A1 (en) 2013-04-02 2014-03-25 Information operation display system, display program, and display method
EP14161972.6A EP2787416A1 (en) 2013-04-02 2014-03-27 Information operation display system, display program, and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013077202A JP6146094B2 (ja) 2013-04-02 2013-04-02 情報操作表示システム、表示プログラム、および、表示方法

Publications (2)

Publication Number Publication Date
JP2014203174A JP2014203174A (ja) 2014-10-27
JP6146094B2 true JP6146094B2 (ja) 2017-06-14

Family

ID=50624373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013077202A Active JP6146094B2 (ja) 2013-04-02 2013-04-02 情報操作表示システム、表示プログラム、および、表示方法

Country Status (3)

Country Link
US (1) US20140292648A1 (ja)
EP (1) EP2787416A1 (ja)
JP (1) JP6146094B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6478502B2 (ja) * 2014-07-11 2019-03-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2016092656A1 (ja) * 2014-12-10 2016-06-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6455186B2 (ja) * 2015-01-29 2019-01-23 富士通株式会社 指先位置推定装置、指先位置推定方法、及び、プログラム
WO2016151869A1 (en) * 2015-03-23 2016-09-29 Nec Corporation Information processing apparatus, information processing method, and program
JP2016184362A (ja) 2015-03-26 2016-10-20 富士通株式会社 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム
JP6582954B2 (ja) * 2015-12-11 2019-10-02 富士通クライアントコンピューティング株式会社 書画カメラ装置、切り抜き支援方法及びプログラム
JP2017117373A (ja) 2015-12-25 2017-06-29 キヤノン株式会社 操作装置とその制御方法、及びプログラム
JP6471729B2 (ja) * 2016-06-23 2019-02-20 京セラドキュメントソリューションズ株式会社 情報処理装置、情報処理システム、及び情報処理方法
US10955971B2 (en) * 2016-10-27 2021-03-23 Nec Corporation Information input device and information input method
JP2018170667A (ja) * 2017-03-30 2018-11-01 日本電気株式会社 画像処理装置、プロジェクタ装置、画像読取装置、画像処理方法、プログラム
US10747371B1 (en) 2019-06-28 2020-08-18 Konica Minolta Business Solutions U.S.A., Inc. Detection of finger press from live video stream
JP6733789B2 (ja) * 2019-07-31 2020-08-05 富士通株式会社 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム
US20220261085A1 (en) * 2021-02-12 2022-08-18 Apple Inc. Measurement based on point selection

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152903A (ja) 1984-01-21 1985-08-12 Kosuke Sato 位置計測方法
JP2000056917A (ja) * 1998-08-11 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 三次元座標指示装置
JP2002196874A (ja) * 2000-12-27 2002-07-12 Ntt Docomo Inc 手書きデータ入力装置及び方法並びに個人認証装置及び方法
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
EP1769328A2 (en) * 2004-06-29 2007-04-04 Koninklijke Philips Electronics N.V. Zooming in 3-d touch interaction
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
DE112011101422T5 (de) * 2010-04-21 2013-02-07 Research In Motion Limited Verfahren zum Interagieren mit einem scrollbaren Bereich auf einer tragbaren elektronischen Vorrichtung
JP2012108771A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム

Also Published As

Publication number Publication date
US20140292648A1 (en) 2014-10-02
EP2787416A1 (en) 2014-10-08
JP2014203174A (ja) 2014-10-27

Similar Documents

Publication Publication Date Title
JP6146094B2 (ja) 情報操作表示システム、表示プログラム、および、表示方法
JP6044426B2 (ja) 情報操作表示システム、表示プログラム及び表示方法
JP6201379B2 (ja) 位置算出システム、位置算出プログラム、および、位置算出方法
US10456918B2 (en) Information processing apparatus, information processing method, and program
EP3176678B1 (en) Gesture-based object measurement method and apparatus
US9535538B2 (en) System, information processing apparatus, and information processing method
US10091489B2 (en) Image capturing device, image processing method, and recording medium
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN106020436A (zh) 图像分析装置及图像分析方法
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2014143548A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
TWI526877B (zh) Input device, machine, input method and recording medium
US20160370865A1 (en) Operation Input Device, Operation Input Method, and Program
CN103677240A (zh) 虚拟触摸交互方法和虚拟触摸交互设备
KR101330531B1 (ko) 3차원 카메라를 이용한 가상 터치 방법 및 장치
US20190266798A1 (en) Apparatus and method for performing real object detection and control using a virtual reality head mounted display system
JP2016184362A (ja) 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム
JP2019215811A (ja) 投影システム、画像処理装置および投影方法
TWI417774B (zh) 光學距離判斷裝置、光學觸控螢幕系統及光學觸控測距之方法
JP7340927B2 (ja) 3dオブジェクトの設計のための描画平面を定義するための方法
JP6229554B2 (ja) 検出装置および検出方法
CN103761011A (zh) 一种虚拟触摸屏的方法、系统及计算设备
JP2018049498A (ja) 画像処理装置、操作検出方法、コンピュータプログラム、及び記憶媒体
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170329

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170501

R150 Certificate of patent or registration of utility model

Ref document number: 6146094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150